งาน SCBX Unlocking AI EP 10: Responsible AI in Action: From Regulation to Real-World Impact
“พลังที่ยิ่งใหญ่ มาพร้อมกับความรับผิดชอบอันใหญ่ยิ่ง”
วาทะดังกล่าวไม่เพียงเป็นวาทะเด็ดประจำโลกของซูเปอร์ฮีโร่ แต่ยังเข้ากับโลกยุคปัจจุบันที่ AI มีอิทธิพลต่อชีวิตของผู้คนแทบทุกด้าน และหากใช้มันถูกวิธี จะนำมาซึ่งสิ่งดีๆ ตามมา
แต่เหรียญย่อมมี 2 ด้านเสมอ หากใช้ผิดวิธี หายนะก็อาจเกินขึ้นได้เช่นกัน ทุกคนจึงจำเป็นต้องเรียนรู้วิธีใช้เทคโนโลยีนี้ด้วยความรับผิดชอบด้วย
ในงาน SCBX Unlocking AI EP.10 ครั้งนี้จัดขึ้นภายใต้หัวข้อ Responsible AI in Action: From Regulation to Real-World Impact มีหัวข้อเสวนาน่าสนใจหลายหัวข้อ โดย Session แรกของงานได้ ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาด้าน Digital Transformation จากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA มาบรรยายเรื่อง “The AI Regulatory Landscape: Navigating Current and Future Framework”
SCBX สรุปสาระสำคัญของเสวนาครั้งนี้มาให้ได้อ่านกันแล้ว ดังต่อไปนี้
- หลายคนอาจคิดว่าประเทศไทยตามหลังมหาอำนาจเรื่องการใช้เทคโนโลยี แต่รู้หรือไม่ว่าไทยเป็นประเทศแรกๆ ที่ร่างกฎหมายเกี่ยวกับ AI ขึ้นมาก่อนจะมี ChatGPT เสียอีก แต่ตอนนั้นหลายคนคิดว่ายังไม่ใช่ประเด็นเร่งด่วน จนกระทั่งพอทุกคนได้เห็นว่า ChatGPT ทำอะไรได้บ้าง หน่วยงานภาครัฐและเอกชนจึงตื่นตัวเรื่องนี้มากขึ้น
- ร่างกฎหมายเกี่ยวกับ AI ที่ว่านั้นมี 2 ร่างคือ (ร่าง) พระราชกฤษฎีกาการประกอบธุรกิจบริการที่ใช้งานระบบปัญญาประดิษฐ์ จัดทำโดย สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ (สดช.) และ (ร่าง) พระราชบัญญัติว่าด้วยการส่งเสริมและสนับสนุนนวัตกรรมปัญญาประดิษฐ์แห่งประเทศไทย จัดทำโดย ETDA ร่วมกับคณะนิติศาสตร์ มหาวิทยาลัยธรรมศาสตร์
- แต่เพราะร่างกฎหมายไว้ก่อน ChatGPT จะเกิดขึ้นทำให้ยังบังคับใช้จริงไม่ได้ ต้องปรับแก้ใหม่ โดยมีผู้เชี่ยวชาญแนะนำว่าวิธีปรับแก้ที่ดีที่สุดคือการรวมสิ่งที่ดีจากทั้ง 2 ร่างนี้เข้าด้วยกัน
- ดร.ศักดิ์ เผยผลการสำรวจที่พบว่า ประเทศไทยให้ความสำคัญกับการพัฒนา AI เป็นอันดับที่ 37 ซึ่งถือว่าสูงทีเดียว แต่ในเชิงการนำ AI ไปใช้งานจริงกลับพบว่า มีเพียง 86 หน่วยงานในประเทศ คิดเป็น 15.2% ที่ใช้งานอย่างจริงจัง ซึ่งถือว่าค่อนข้างน้อย
- IPOS AI MONITOR 2024 ยังสำรวจพบว่าคนไทยมีความเชื่อใจบริษัทที่นำ AI มาใช้งาน ว่าจะไม่เอาข้อมูลส่วนบุคคลของพวกเขาไปใช้ในทางไม่ดี จัดว่าเป็นประเทศที่โลกสวยเป็นอันดับ 1 ของโลกทีเดียว แต่แน่นอนว่าการไว้ใจ AI มากเกินไปย่อมไม่ใช่เรื่องดี
How much do you agree or disagree with the following? I trust that companies that use artificial intelligence will protect my personal data.
- ดร.ศักดิ์ เล่าว่าหน้าที่หลักของ ETDA คือการหาวิธี Implement ให้คนไทยสามารถนำ AI ไปใช้งานจริงได้อย่างปลอดภัย สามารถเพิ่มความสามารถในการแข่งขันทางธุรกิจ และยังเป็นหน้าที่ของ ETDA ในการส่งเสริมให้ทุกคนใช้อย่างมีจริยธรรมและจรรยาบรรณด้วย
- สำหรับหลักจริยธรรมในการใช้งาน AI นั้นมี 7 ข้อที่ควรต้องพึงปฏิบัติ ดังต่อไปนี้
- ใช้งานอย่างเป็นธรรม ไม่ใช้อย่างอคติ หรือเลือกปฏิบัติ
- สามารถใช้งานแล้วอธิบายวิธีใช้งานอย่างโปร่งใสได้
- มีธรรมาภิบาล หากระบบ AI ที่ใช้ก่อให้เกิดความเสียหายด้านใดด้านหนึ่ง ก็ต้องมีความรับผิดและความรับผิดชอบด้วย
- ปกป้องความเป็นส่วนตัว ให้ความสำคัญเรื่องลิขสิทธิ์ ที่มาที่ไปของแหล่งข้อมูลต้องถูกกฎหมาย ไม่ละเมิดงานของใคร
- ใช้งานด้วยความปลอดภัย ใช้งานให้มีความน่าเชื่อถือ
- ใช้งานโดยคำนึงถึงผลกระทบและประโยชน์ต่อสังคม
- อย่าให้ AI เป็นฝ่ายควบคุมมนุษย์ มนุษย์ต้องมีอิสระในการใช้งาน และมีสิทธิ์ในการตัดสินใจทำสิ่งต่างๆ ในขั้นสุดท้าย
- ดร.ศักดิ์ ยังกล่าวว่าหากต้องการสร้าง AI Governance ภาครัฐสามารถทำได้ว่ามี 2 อย่างคือการออกกฎหมายกำกับดูแลอย่างจริงจัง และให้คำแนะนำกว้างๆ เป็นกรอบในการใช้ ซึ่งหากอยากกำกับดูแลให้ผู้คนใช้งานอย่างมีประสิทธิภาพและมีความรับผิดชอบ ก็ควรทำทั้ง 2 อย่างนี้ควบคู่กัน
- สำหรับการออกกฎหมาย แม้จะยังไม่มีกฎหมายเพื่อกำกับดูแลการใช้ AI อย่างเป็นทางการ แต่อย่าลืมว่ายังมีกฎหมายอื่นๆ ที่สามารถนำมาใช้กำกับดูแลได้ไม่ต่างกัน เช่น กฎหมายลิขสิทธิ์ กฎหมาย PDPA กฎหมายคุ้มครองเจ้าของเทคโนโลยี พรบ. ว่าด้วยการกระทำความผิดทางคอมพิวเตอร์ เป็นต้น แต่การใช้กฎหมายก็ต้องคำนึงด้วยว่า แต่ละฉบับมีช่องโหว่อะไรบ้าง หากเจอกรณี ‘เทาๆ’ เราสามารถตีความได้ถึงขั้นไหนบ้าง
- หนึ่งในปัญหาที่หลายคนเจอก็คือ การนำ AI ไปใช้สร้าง Fake News หรือนำไปหลอกลวงผู้อื่น ซึ่งถือเป็นเรื่องน่าเป็นห่วง และยอมรับว่าปัจจุบันกฎหมายยังไม่สามารถแก้ปัญหานี้ได้อย่างจริงจัง
- ไม่เพียงแค่ประเทศไทยที่ตื่นตัวเรื่องกฎหมายหรือนโยบายกำกับดูแล AI แต่หลายประเทศ โดยเฉพาะชาติมหาอำนาจก็พยายามหาวิธีกำกับดูแลที่แตกต่างกันไป เช่น
- สหภาพยุโรป พยายามวางแนวทางการกำกับดูแลการนำผลิตภัณฑ์ AI เข้ามาในตลาด และพยายามควบคุมการใช้งาน AI โดยพิจารณาจากความเสี่ยงตั้งแต่น้อยไปมาก
- สหรัฐอเมริกา ไม่เคยมีกฎหมายควบคุม AI มาก่อน แต่ในยุคสมัยของประธานาธิบดี โจ ไบเดน มีการออกคำสั่งให้จับตาดูวิวัฒนาการของ AI อย่างใกล้ชิด เพื่อควบคุมมันอย่างจริงจัง ข้อน่าสังเกตก็คือ ผู้บริหาร Tech Company รายใหญ่ๆ ต่างออกมาบอกให้รัฐบาลควบคุม AI อย่างจริงจังด้วย เช่น อีลอน มัสก์ จาก Tesla และ มาร์ค ซัคเกอร์เบิร์ก จาก Meta
- อังกฤษ พยายามชวนหลายประเทศลงนามเรื่อง AI Safety เพื่อวางแนวทางควบคุมความปลอดภัยในการใช้เทคโนโลยีที่อาจเปลี่ยนแปลงโลกจากหน้ามือเป็นหลังมือได้
- ประเทศจีนอาจไม่มีกฎหมายกำกับดูแล AI โดยตรง เพราะเน้นส่งเสริมให้พัฒนาและใช้งานในหลายด้านมากกว่า แต่ก็มีหน่วยงานตรวจสอบอยู่ห่างๆ เพื่อให้แน่ใจว่าจะไม่มีการใช้ AI แล้วส่งผลด้านลบต่อพรรคคอมมิวนิสต์
- ดร.ศักดิ์เล่าถึง ธรรมาภิบาลในการประยุกต์ใช้ AI (AI Governance) ว่าคือ หลักการกำกับดูแลการปฏิบัติงานในทุกกระบวนการที่เกี่ยวข้องกับการประยุกต์ใช้ AI โดยจัดให้มีมาตรการในการกำกับดูแลผ่านการกำหนดนโยบาย ขั้นตอนปฏิบัติ และเครื่องมือในการปฏิบัติงาน เพื่อให้เกิดการประยุกต์ใช้ AI อย่างมีความรับผิดชอบ
- AI governance เป็นส่วนหนึ่งของโครงสร้างการกำกับดูแลภายในองค์กร ซึ่งมีความเกี่ยวข้องกับ Data Governance เพราะ AI จำเป็นต้องใช้ข้อมูลในการสอนและประมวลผล นอกจากนี้ AI Governance ยังอยู่ภายใต้การกำกับดูแลของ IT Governance โดย AI Governance ให้ความสำคัญเพิ่มเติมในประเด็นของความสอดคล้องตามจริยธรรมปัญญาประดิษฐ์ (AI ethical principle)
- ดร.ศักดิ์ยังเผยอีกว่า ETDA วางกรอบการทำงานด้าน AI เพื่อสนับสนุนให้เกิดการใช้งานอย่างมีธรรมาภิบาลภายใต้ 3 องค์ประกอบหลัก คือ
- 1.กำหนดโครงสร้างการกำกับดูแล
- 2.กำหนดกลยุทธ์การประยุกต์ใช้
- 3.การกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ AI
- สำหรับกรอบการทำงาน รวมถึงไกด์ไลน์ทั้งหมดนี้ สามารถดาวน์โหลดมาอ่านได้อย่างละเอียดผ่านเว็บไซต์ของ ETDA โดยจะออกไกด์ไลน์ใหม่ๆ ให้ได้ศึกษาทุกเดือน และเล่าออกมาให้เข้าใจง่าย ซึ่งจะช่วยให้ทุกคนมองเห็นแนวทางคร่าวๆ ในการใช้งานที่ตรงกันต่อไป
- “วันหนึ่งเราจะมีกฎหมายกำกับดูแล AI แน่นอน แต่ระหว่างที่รอให้วันนั้นมาถึง เราต้องเตรียมองค์กร เตรียมสังคมให้พร้อมวันนั้นด้วย ให้แน่ใจว่าสังคมจะเผชิญความเสี่ยงในการใช้งาน AI น้อยที่สุด เกิดปัญหาน้อยที่สุด และสร้างประโยชน์ให้มากที่สุด” ดร.ศักดิ์ทิ้งท้าย