งาน SCBX Unlocking AI EP 10: Responsible AI in Action: From Regulation to Real-World Impact
ปิดท้ายงาน SCBX Unlocking AI EP.10 Responsible AI in Action: From Regulation to Real-World Impact ด้วยการเสวนาเรื่อง Kickstarting All In Organizations: Creating Responsible AI Policies and Best Practices for Compliance
งานนี้มีวิทยากรผู้คร่ำหวอดในแวดวง AI ของไทยมาร่วมแสดงความคิดเห็นอย่างรอบด้านถึงการวางนโยบายด้าน AI การผลักดันให้เกิดการใช้ AI ด้วยความรับผิดชอบ และอื่นๆ อีกมากมาย ได้แก่
- ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาด้าน Digital Transformation จากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA
- คุณกฤติยาณี บูรณตรีเวทย์ ทนายความและพาร์ทเนอร์จาก Baker McKenzie
- คุณถิรนันท์ อรุณวัฒนกูล ประธานเจ้าหน้าที่ปฏิบัติการ บริษัท มันนิกซ์ (MONIX) จำกัด
- คุณณัฐพล จงจรูญเกียรติ Vice President จากบริษัท พีทีที โกลบอล เคมิคอล จำกัด (มหาชน) หรือ GC
- คุณวรวิสุทธิ์ ภิญโญยาง Co-Founder จาก ImpactMind.ai และ Insiderly.ai ทำหน้าที่เป็นพิธีกร
เนื้อหาในวงเสวนานี้มีเรื่องน่าสนใจหลายประเด็น SCBX สรุปสาระสำคัญของเสวนาครั้งนี้มาให้ได้อ่านกันแล้ว ดังต่อไปนี้
ใช้งาน AI อย่างปลอดภัย อย่าลืมให้ความรู้แก่ User
- คุณณัฐพล เล่าว่าหนึ่งในกรณีการใช้งาน AI อย่างไม่ปลอดภัยคือกรณีที่พนักงานของ Samsung นำข้อมูลภายในขององค์กรไปให้ GenAI เรียนรู้จนความลับรั่วไหลไปสู่สาธารณชน กรณีนี้ทำให้เกิดการเน้นย้ำถึงความสำคัญของ Cyber Security อย่างเต็มพิกัด และ GC นำกรณีนี้มาย้ำเตือนทุกคนในองค์กรว่า ยิ่งเป็นองค์กรใหญ่ ยิ่งต้องให้ความสำคัญกับเรื่องนี้มาก เพราะหากเกิดปัญหา ความเสียหายที่องค์กรใหญ่ต้องเผชิญย่อมเยอะกว่าองค์กรเล็กๆ หลายเท่า
- คุณณัฐพล เสนอว่าหลายองค์กรพยายามหาวิธีป้องกันเชิงเทคนิค แต่อาจลืมไปว่า อีกสิ่งที่ต้องทำควบคู่กันไปคือการให้ความรู้แก่ผู้ใช้ เพื่อให้ใช้งานอย่างปลอดภัยควบคู่กันไปด้วย เพราะต่อให้เข้ารหัสป้องกันแทบตาย ถ้าคนในองค์กรใช้งานอย่างไม่เข้าใจหรือรู้เท่าทัน สุดท้ายก็จะเกิดปัญหาข้อมูลรั่วไหล หรือนำไปใช้อย่างไม่ระวังไม่รู้จบอยู่ดี
AI Governance Model ที่ดี ต้องคำนึงถึงแง่มุมด้านกฎหมายและธรรมาภิบาล
- คุณกฤติยาณี กล่าวถึงแง่มุมด้านกฎหมายว่า ปัจจุบันมี Lawfirm หลายแห่งใช้ AI ช่วยทำงานอย่างแพร่หลาย แต่ก็มีกฎเคร่งครัดว่าต้องใช้งานอย่างมีธรรมาภิบาล และต้องทำสัญญากับผู้ให้บริการอย่างเคร่งครัดว่า ข้อมูล Input ที่ป้อนเข้าไปจะต้องไม่หลุดออกสู่ภายนอก แต่ถึงจะมีสัญญาดังกล่าวแล้ว นักกฎหมายเองก็ต้องระวังไม่ให้เอาข้อมูลลับใส่เข้าไปด้วย
- “ต่อให้ไม่มีกฎหมายเรื่อง AI แต่ในฐานะนักกฎหมาย เราก็ไม่ควรทำให้ข้อมูลของลูกค้า ข้อมูลที่เป็นความลับของรั่วไหลออกไปค่ะ”
- ทนายจาก Baker McKenzie ยังแนะนำอีกว่า องค์กรที่เป็น AI Governance Model ที่ดี จะต้ออธิบายให้พนักงานเข้าใจว่า การใช้งาน AI อย่างมีความรับผิดชอบสำคัญอย่างไรตั้งแต่แรก อย่าลืมว่าตอนเซ็นสัญญาเข้าร่วมงานกับองค์กร ทุกที่จะมีข้อบังคับว่าต้องเคารพกฎของบริษัท ไม่สร้างความเสียหายให้องค์กร และหากใช้งาน AI ด้วยความประมาทเลินเล่ออาจโดนบริษัทฟ้องร้องได้ ซึ่งเป็นสิ่งที่เคยเกิดขึ้นมาแล้ว
- อย่างไรก็ตาม หลายคนอาจใช้ GenAI ช่วยสร้างสรรค์ผลงานขึ้นมา แล้วงานเหล่านั้นกลับมีความคลับคล้ายคลับคลากับงานของผู้อื่นโดยไม่ตั้งใจ ซึ่งแน่นอนว่าหากเอาไปใช้ผิดวิธี อาจโดนฟ้องร้องได้
- คุณกฤติยาณีให้หลักการพิจารณาว่า องค์ประกอบส่วนไหนที่เหมือนกันได้ไม่มีปัญหา เช่น หากมีนิยายเรื่องหนึ่งมีพล็อตเรื่องคล้ายกับนิยายอีกเรื่อง แค่นั้นอาจยังไม่เข้าข่ายว่าลอกหรือละเมิดลิขสิทธิ์
- แต่หากเจาะลงไปในรายละเอียดแล้วพบว่าลักษณะตัวละครเหมือนกัน สถานที่ดำเนินเรื่องเหมือนกัน ฉากเหตุการณ์ใกล้เคียงกัน ชนิดที่ใครเห็นก็จะนึกถึงอีกเรื่องหนึ่งทันที กรณีนี้มีความเสี่ยงสูงที่จะถูกเจ้าของผลงานตัวจริงฟ้องร้อง
แนวทางการไกด์ไลน์การใช้งาน AI กับภาครัฐและเอกชน
- ดร.ศักดิ์ เล่าว่าหน่วยงานรัฐตื่นตัวเรื่องการเอา GenAI มาใช้ไม่แพ้เอกชน มีการเน้นย้ำคนในระดับหัวหน้าว่า หากมีการมอบหมายงานใดๆ แก่ลูกน้อง หัวหน้าต้องตรวจสอบเสมอว่าลูกน้องเอา AI มาช่วยงานด้านใดบ้างหรือไม่ บางองค์กรมีข้อบังคับเลยว่า ห้ามให้พนักงานข้าราชการใช้งาน AI ขององค์กรผ่านมือถือ และกำลังจะมีข้อปฏิบัตินี้ส่งตรงไปยังข้าราชการทุกคนอย่างพร้อมเพรียงกัน ซึ่งหากหน่วยงานเอกชนใดอยากนำไกด์ไลน์นั้นไปใช้งานก็ได้เช่นกัน
- ดร.ศักดิ์ ย้ำว่า เราใช้ GenAI ช่วยงานได้ แต่เราควรต้องมีความซื่อสัตย์ ต้องรู้ว่าสิ่งใดนำไปใช้งานได้ไม่ผิดกฎหมาย ไม่ผิดหลักจริยธรรมจรรยาบรรณ สิ่งใดใช้แล้วมีความสุ่มเสี่ยงที่จะผิดกฎหมายและผิดจริยธรรม และคนเป็นหัวหน้าผู้มีหน้าที่ตรวจงานลูกน้องใต้บังคับบัญชา ก็ต้องรู้ประเด็นนี้และไม่ปล่อยผ่านง่ายๆ ด้วย
- คุณถิรนันท์ เสริมว่า แม้จะมีไกด์ไลน์ให้ทุกคนยึดแล้ว แต่ทุกองค์กรก็ต้องนำไปปรับใช้ให้เข้ากับบริบทของแต่ละองค์กรด้วย ซึ่งแต่ละที่ย่อมมีบริบทที่ไม่เหมือนกันเลย ไม่ว่าจะองค์กรรัฐหรือเอกชนก็ตาม
การพัฒนาคนต้องควบคู่ไปกับการใช้เทคโนโลยี
- คุณถิรนันท์ เน้นย้ำว่าแม้จะใช้เทคโนโลยีในการทำงาน แต่ก็ต้องให้ความสำคัญกับการพัฒนาคนเสมอ ต้องทำให้เขาพร้อมเรียนรู้และปรับตัว ที่สำคัญอย่ามั่นใจในการใช้เทคโนโลยีจนเกินไป เพราะหากใช้โดยเกิดอคติ จะทำให้เกิดปัญหาตามมา
- และอย่าคิดว่าพอเกิดปัญหาแล้วพนักงานจะไม่มีความผิด องค์กรสามารถสั่งลงโทษพนักงานได้ด้วย ซึ่งก็ขึ้นอยู่กับความรุนแรงของความผิดนั้นๆ องค์กรต้องเด็ดขาดเพื่อไม่ทำให้เกิดการทำผิดซ้ำในอนาคต
- คุณณัฐพล เสริมว่า ทุกองค์กรไม่ควรใช้มาตรการ One Size Fits All ในการให้ความรู้ด้าน AI กับทุกคน อย่าคิดว่าต้องให้ข้อมูลชุดเดียวกันแล้วทุกคนจะเข้าใจตรงกัน อย่าลืมว่า AI User ในองค์กรมีกี่ระดับ คนระดับไหนควรรู้เรื่องอะไรบ้าง ซึ่งแต่ละคนแต่ละตำแหน่งจะมีเรื่องที่ต้องรู้และข้อควรระวังไม่เหมือนกัน
ข้อควรระวังในการใช้งาน AI ที่ทุกคนต้องรู้
- คุณกฤติยาณี แนะนำว่าก่อนใช้งาน AI สักตัว ควรอ่านข้อตกลงในการใช้งานให้ดีก่อน เพราะแต่ละตัวมีข้อกำหนดเบื้องหลังไม่เหมือนกัน บางตัวเมื่อเราใช้งานแล้ว ลิขสิทธิ์ในผลงานนั้นเป็นของเราทั้งหมด แต่บางตัวไม่ได้ให้สิทธิ์ว่าผลงานนั้นเป็นลิขสิทธิ์ของเราโดยแท้จริง ต้องอ่านสัญญาด้วยความระมัดระวัง ซึ่งจริงๆ แล้วไม่ใช่แค่เรื่องการใช้งาน AI แต่ยังรวมถึงการใช้งานแอปพลิเคชันทุกอย่างด้วย
- ดร.ศักดิ์ เน้นย้ำว่า เราอาจไม่มีกฎหมายกำกับดูแลด้าน AI อย่างเป็นทางการ แต่อย่าลืมว่าเรายังมีกฎหมายอื่นๆ ด้วย ถึงกระนั้นก็อย่ากลัวกฎหมายเกินไปจนไม่กล้าใช้งาน หรือใช้งานอย่างสุดโต่ง ถาม ChatGPT อย่างเดียวจนไม่หาข้อมูลจากแหล่งอื่นเลย
- จงใช้งานอย่างมี Critical Thinking และใช้มันให้เหมาะสมกับวิถีของตัวเองและองค์กรจะดีที่สุด