ปัญญาประดิษฐ์หรือ AI อาจเรียกได้ว่าเป็นเทคโนโลยีเปลี่ยนโลก เป็นพลังสำคัญเพื่อการพัฒนาประเทศไทยให้เจริญเติบโต แก้ไขปัญหาสาธารณสุข ลดการปล่อยก๊าซเรือนกระจก ลดช่องว่างทางการศึกษา ฯลฯ ขณะเดียวกัน การพัฒนาของ AI อย่างไม่หยุดยั้งก็นำมาซึ่ง “ความท้าทายใหม่” ไม่ว่าประเด็นด้านความปลอดภัย ความเป็นส่วนตัว ทักษะ และช่องว่างในขีดความสามารถทางการแข่งขัน
และเพื่อให้มั่นใจว่าการพัฒนา AI ที่เกิดขึ้นเป็นไปอย่างถูกต้อง ทรู คอร์ปอเรชั่น จึงได้จัดงานสัมมนา AI Gets Good โดยมีตัวแทนจากภาครัฐ ภาควิชาการ และภาคธุรกิจ ร่วมอภิปรายและแลกเปลี่ยนความคิดเห็นในหัวข้อ “ทำอย่างไรให้มั่นใจว่า AI จะสร้างผลกระทบเชิงบวกต่อสังคมไทย?”
กำกับดูแล = อุปสรรคหรือส่งเสริม?
ดร.ชัยชนะ มิตรพันธ์ ผู้อำนวยการสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ กล่าวว่า เป็นที่ประจักษ์แล้วว่า ปัจจุบันทั่วโลกมีการใช้งาน AI อย่างแพร่หลายในรูปแบบบริการที่แตกต่างกัน ซึ่งมีทั้งคุณและโทษ ตัวอย่างเช่น โซเชียลมีเดียที่มี AI ทำหน้าที่เป็น “พื้นที่แห่งเสียงสะท้อน” (Echo Chamber) เป็นปรากฏการณ์ที่บุคคลหนึ่งๆ ในพื้นที่หนึ่งๆ ได้รับข้อมูลข่าวสารและความคิดเห็นเป็นไปในทิศทางเดียวกัน จนเกิดเป็นการรับสารด้านเดียว
จากผลกระทบเชิงลบของ AI ในมิติทางเศรษฐกิจ สังคมและความมั่นคงของชาติ ทำให้ผู้มีส่วนได้เสียเริ่มคำนึงถึงแนวทาง “การกำกับดูแล” แม้แต่ผู้พัฒนาเองก็เริ่มตระหนักถึง “ความเสี่ยง” ที่เกิดขึ้นจาก AI จนนำมาสู่แนวคิดในการ “หยุด” พัฒนาสักระยะเวลาหนึ่ง เพื่อศึกษาผลกระทบเชิงลบของ AI ต่อภาคส่วนต่างๆ
ทั้งนี้ แนวคิดการกำกับดูแล AI นั้น เริ่มขึ้นในสหภาพยุโรปที่ตระหนักถึง “ความเสี่ยง” จากการใช้ AI ในการละเมิดสิทธิในข้อมูลส่วนบุคคล และผลลัพธ์จากการประมวลผล โดย AI มีแนวโน้มที่จะส่งผลกระทบต่อการดำเนินชีวิตของประชาชน ทำให้ภาครัฐจำเป็นต้องมีมาตรการในการติดตามดูแลและควบคุมความเสี่ยง ขณะเดียวกัน อีกค่ายหนึ่งก็ส่งเสียง “คัดค้าน” การกำกับดูแล โดยเล็งเห็นว่าการกำกับดูแลจะเป็น “อุปสรรค” มากกว่า “ส่งเสริม” การพัฒนา AI
สำหรับประเทศไทยนั้น ยัง “ไม่มีความชัดเจน” ในแง่การกำกับดูแล AI โดยเขายอมรับว่า ภาครัฐไทยยังขาดประสบการณ์การใช้งานและการกำกับดูแล AI ซึ่งถือเป็นเรื่องใหม่ในการกำกับดูแล
“หากเร่งกำกับดูแลเทคโนโลยีก่อนเวลาที่เหมาะสม อาจเป็นการทำแท้งเทคโนโลยีก่อนที่เทคโนโลยีจะเกิดด้วยซ้ำไป ดังนั้น เราจึงเลือกใช้กลไกติดตามแนวทางจากต่างประเทศเป็นหลัก” ดร.ชัยชนะ กล่าว
กลไกคลินิก AI
ปัจจุบัน สพธอ. มี ศูนย์ธรรมภิบาลปัญญาประดิษฐ์ (AI Governance Clinic: AIGC) เป็นกลไกหลักในการพัฒนากรอบธรรมาภิบาลปัญญาประดิษฐ์ผ่านการวิเคราะห์ความเสี่ยงของ AI ตามแต่ละโครงการ เพื่อหาข้อบ่งชี้ผลกระทบทางบวกและทางลบของการพัฒนา AI ตามแต่จุดประสงค์ ซึ่งหากการพัฒนานั้นมีแนวโน้มที่มีความเสี่ยงสูง หน่วยงานกำกับดุแลก็จะทยอยออกมาตรการเพื่อดูแลและควบคุมความเสี่ยงเป็นรายกรณีไป
“คลินิก AI ถือเป็นกลไกที่ช่วยส่งเสริมการประยุกต์ใช้ AI อย่างมีจริยธรรม” ดร.ชัยชนะ อธิบายพร้อมกล่าวเสริมว่า “บางอย่าง กลไกการกำกับดูแลตนเอง (Self-Regulation) ก็เพียงพอแล้ว แต่หากมองว่ากลไกกำกับดูแลไม่ได้ผล ก็อาจต้องร่างกฎหมายควบคุมดูแลอีกที ดังนั้น การกำกับดูแลการใช้ AI อาจต้องใช้ควบคู่กันไปผ่านทั้งกลไกกำกับดูแลตนเองและกฎหมาย เพื่อให้มีพื้นที่ในการพัฒนา สร้างความมั่นคั่งทางเศรษฐกิจต่อประเทศ ขณะเดียวกัน ก็ต้องพิจารณาถึงผลกระทบทางสังคมไปพร้อมกัน”
ขณะเดียวกัน เมื่อเร็วๆ นี้ รัฐสภายุโรป ได้ลงมติรับรอง “พระราชบัญญัติเพื่อการกำกับดูแลการใช้ปัญญาประดิษฐ์ (Artificial Intelligence Act)” โดยมีเป้าหมายเพื่อปกป้องคุ้มครองสิทธิขั้นพื้นฐานและหลักการประชาธิปไตยในภาคพื้นยุโรป ขณะเดียวกัน ยังคงสนับสนุนภาคธุรกิจต่อการพัฒนาปัญญาประดิษฐ์ เพื่อให้ยุโรปพิชิตสถานะผู้นำด้าน AI บนเวทีโลก
การประกาศดังกล่าวถือเป็นความเคลื่อนไหวสำคัญต่อวงการ AI โลก โดยถือเป็นกฎหมายฉบับแรกของโลกที่ระบุถึงแนวทางการกำกับดูแลการใช้ AI หลักการและเหตุผล ข้อควรระวัง รวมถึงบทลงโทษ
มอง AI เป็นระบบ
ด้าน ผศ.ดร.จิตร์ทัศน์ ฝักเจริญผล อาจารย์ประจำภาควิชาวิศวกรรมคอมพิวเตอร์ มหาวิทยาลัยเกษตรศาสตร์ และผู้แปลหนังสือ “AI ที่มีหัวใจ The Ethical Algorithm” ให้ความเห็นว่า การกำหนดแนวทางการใช้ AI อย่างมีความจริยธรรมถือเป็นเรื่องที่ท้าทายอย่างมาก จำเป็นต้องกำหนดวิธีคิดและหลักเกณฑ์การพิจารณาอย่างชัดเจน
ตัวอย่างเช่น การกำกับดูแล “การใช้อัลกอริธึ่มอย่างมีจริยธรรม” จะต้องมีการกำหนดนิยามและองค์ประกอบอย่างชัดแจ้ง หากกำหนดให้อัลกอริธึ่มจะต้องปราศจากอคติและการเลือกปฏิบัติ ผู้ร่างจะต้องกำหนดนิยามของอคติให้ชัดเจน ซึ่งจากงานวิจัยที่ผ่านมา พบว่า อคติมีนิยามที่หลากหลายและดิ้นได้ ดังนั้น จึงต้องบ่งชี้ปัญหาที่เกิดจากอคติ กำหนดเกณฑ์ชี้วัด ใช้กรอบกำกับดูแลเป็นแนวทางโดยไม่พิจารณาในรายละเอียดจนเกินไป ที่สำคัญ การลดความเสี่ยงด้านอคติจาก AI อาจต้องแก้ไขที่สารตั้งต้น นั่นคือ การป้อนข้อมูล
“AI เป็นเรื่องของระบบ” ผศ.ดร.จิตร์ทัศน์ กล่าวและเสริมว่า ดังนั้น ไม่ว่าจะเป็นการทำความเข้าใจ การเรียนรู้ การใช้งาน รวมถึงการกำกับดูแล ผู้มีส่วนเกี่ยวข้องควรที่จะเข้าใจพื้นฐานความคิดอย่างลึกซึ้งและมอง AI อย่างเป็นระบบมากกว่าการมองปัญหาเป็นจุดๆ อย่างเอกเทศ
ความชอบธรรมแห่งการใช้ข้อมูล
มนตรี สถาพรกุล หัวหน้าสายงานคุ้มครองข้อมูลส่วนบุคคล บริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) กล่าวว่า AI เป็นเทคโนโลยีที่ฉลาดล้ำ จัดเป็นโครงสร้างพื้นฐานสมัยใหม่ที่มีบทบาทสำคัญในการขับเคลื่อนประเทศและองค์กร อย่างไรก็ตาม เมื่อพิจารณาถึงการใช้ประโยชน์จาก AI จะสามารถแบ่งออกได้เป็น 2 ส่วน ส่วนแรกคือ การใช้เทคโนโลยี และอีกส่วนคือ การใช้ข้อมูล ซึ่งในประเด็น “การใช้ข้อมูล” เขามีความเห็นว่า “ควรมีการกำกับดูแล” เพื่อรักษาสิทธิของเจ้าของข้อมูลให้เป็นไปตามวัตถุประสงค์ที่กำหนด
“ทำไม ทรู คอร์ป ต้องกำกับดูแลการใช้ AI ภายในองค์กร? เพราะเราต้องการให้เกิดความชัดเจนในการใช้ข้อมูล ตามวัตถุประสงค์ที่ชอบธรรม ซึ่งการใช้ AI อย่างมีจริยธรรมสะท้อนถึงการที่ ทรู คอร์ป เคารพใน ‘สิทธิ’ ของเจ้าของข้อมูล” มนตรี อธิบาย
นอกจากนี้ เมื่อวิเคราะห์ภูมิทัศน์ระบบนิเวศ AI จะสามารถแบ่งประเด็น “ความเสี่ยง” ที่เกี่ยวข้องกับ AI ได้ 3 ประเด็น ดังนี้ 1. นโยบายความเป็นส่วนตัวของข้อมูล 2. เงื่อนไขการใช้ข้อมูล เพื่อป้องกันผลลัพธ์ที่เป็นอคติ และ 3. ความเข้าใจในเทคโนโลยี AI ต่อสาธารณชน
ทั้งนี้ เพื่อเป็นเครื่องการันตีว่าผู้บริโภคจะได้รับประโยชน์สูงสุดจากการใช้ AI ในการดำเนินงาน ทรู คอร์ป จึงได้ร่าง “ธรรมนูญปัญญาประดิษฐ์” (True’s AI Ethical Charter) เพื่อเป็นแนวทางการใช้ AI อย่างมีจริยธรรม” โดยกำหนดหลักการพื้นฐานสำคัญ 4 ประการ ได้แก่ 1. เจตนาดี 2. ความเป็นกลาง ปราศจากอคติ 3. ความเป็นส่วนตัวของข้อมูล และ 4. ความโปร่งใส
“ข้อมูลเป็นฐานสำคัญที่ทำให้ AI ทำงานได้” มนตรีกล่าว และแม้ว่าประเทศไทยจะยังไม่มีกฎหมายที่เกี่ยวข้องกับ AI เฉพาะ แต่กฎหมายไทยในปัจจุบันได้กำหนดแนวทางและกรอบการใช้งาน “ข้อมูล” อย่างชัดเจนอยู่แล้ว ไม่ว่าจะเป็น พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 รวมถึงประกาศ กสทช. เรื่อง มาตรการคุ้มครองสิทธิของผู้ใช้บริการโทรคมนาคมเกี่ยวกับ ข้อมูลส่วนบุคคลสิทธิในความเป็นส่วนตัวและเสรีภาพในการสื่อสารถึงกันโดยทางโทรคมนาคม
“การพัฒนา AI ก็เปรียบเสมือนการเลี้ยงเด็ก ในทางเดียวกัน การกำหนดแนวทางการใช้ AI อย่างมีจริยธรรมก็เพื่อให้พวกเขาเจริญเติบโตเป็นสมาชิกที่ดีของสังคม” มนตรี เปรียบเทียบ
สอดรับกับความเห็นของ เรวัฒน์ ตันกิตติกร หัวหน้าสายงาน Channel Excellence แห่งบริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) โดยเขามองว่า AI จะมีจริยธรรมหรือไม่ ขึ้นอยู่กับข้อมูลที่ให้ AI วิเคราะห์ โดยมี “จุดประสงค์” ของการใช้งานเป็นตัวแปรสำคัญ