10 มิ.ย. 2567 450 0

3 เสาหลัก กำกับดูแลการใช้ AI (AI Governance) สำหรับผู้บริหารองค์กร

3 เสาหลัก กำกับดูแลการใช้ AI (AI Governance) สำหรับผู้บริหารองค์กร

ขณะที่ทั่วโลกต่างกำลังหาวิธีรับมือเพื่อกำกับดูแลการใช้งานเทคโนโลยีปัญญาประดิษฐ์ (AI) ซึ่งมีความสามารถมากขึ้นเรื่อย ๆ และมีบทบาททั้งต่อชีวิตประจำวันของผู้คน องค์กร อุตสาหกรรม กระทั่งถึงระดับที่มีผลต่อการเพิ่มขีดความสามารถในการแข่งขันทางเศรษฐกิจของประเทศ ประเทศไทยซึ่งได้รับการประเมินดัชนีความพร้อมด้าน AI1 ปี 2023 ในลำดับที่ 37 แม้ว่าในช่วงเวลาที่เผยแพร่บทความนี้ (มิถุนายน 2567) จะยังอยู่ในช่วงการร่างกฎหมายที่จำเป็น ก็ต้องได้รับการเตรียมความพร้อมในทุกภาคส่วนอย่างเป็นระบบ ภายใต้แนวปฏิบัติทั้งจากภายในและต่างประเทศ รวมถึงแนวปฏิบัติตามมาตรฐานสากล

OPEN-TEC ศูนย์รวมองค์ความรู้ด้านเทคโนโลยี (Tech Knowledge Sharing Platform) ภายใต้การดูแลของ TCC TECHNOLOGY GROUP จึงร่วมเป็นหนึ่งช่องทางในการเพิ่มการตระหนักถึงความสำคัญของ AI ต่อธุรกิจ โดยนำเสนอแนวทางการกำกับดูแลการใช้ AI บนหลักการด้านจริยธรรมและธรรมาภิบาลสำหรับผู้บริหารองค์กร (AI Governance) ที่จำเป็นต้องสร้างความสมดุลและยั่งยืนทั้งในแง่การป้องกันและการสร้างสรรค์นวัตกรรม และเนื้อหาที่เป็นประโยชน์บางส่วนจากการบรรยายของ ดร. ศักดิ์   เสกขุนทด2 ที่ปรึกษาอาวุโส และผู้ทรงคุณวุฒิด้าน Digital Transformation สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ในหัวข้อ AI Governance – Thailand’s Approach ในงาน TMA Digital Dialogue 2024


การกำกับดูแลการใช้ AI (AI Governance) สำหรับผู้บริหารองค์กร

เสาที่ 1: AI Governance Structure

เตรียมความพร้อมองค์กรด้วยการวางโครงสร้างรากฐานสำหรับการกำกับดูแลการประยุกต์ใช้ AI ภายในองค์กร ประกอบด้วยขั้นตอนต่าง ๆ ได้แก่

  • กำหนด/แต่งตั้งคณะทำงาน AI Governance ภายใต้บริบทของแต่ละองค์กร ซึ่งควรประกอบด้วยผู้บริหารจากหลากหลายแผนก เช่น ฝ่ายไอที ฝ่ายธุรกิจ ฝ่ายกฎหมาย และฝ่ายกำกับดูแลการปฏิบัติงาน (Compliance) เป็นต้น เพื่อร่วมกันรับผิดชอบการกำกับดูแล การพัฒนา และการดำเนินงานตามกรอบการกำกับดูแล AI มีหน้าที่ความรับผิดชอบ เช่น
  • การกำหนดทิศทางการดำเนินการ คณะทำงานฯ ควรเป็นผู้กำหนดทิศทางสำหรับกลยุทธ์ AI ขององค์กร จัดการความเสี่ยงที่เกี่ยวข้องกับ AI รวมถึงการกำหนดนโยบายและขั้นตอนที่เกี่ยวข้อง
  • การเฝ้าติดตาม คณะทำงานฯ ควรหมั่นติดตามประสิทธิภาพจากการประยุกต์ใช้ AI เทียบกับกรอบการกำกับดูแล AI ขององค์กร
  • การประเมินผล คณะทำงานฯ ควรประเมินประสิทธิภาพโดยรวม ผลกระทบ และความยั่งยืนของการประยุกต์ใช้ AI ขององค์กร ซึ่งรวมถึงประสิทธิผลของกลไกการกำกับดูแล (AI Mechanism) โอกาสและความเสี่ยงที่อาจเกิดขึ้น
  • กำหนดบทบาทและความรับผิดชอบ กำหนดบทบาทและความรับผิดชอบอย่างชัดเจนสำหรับผู้มีส่วนได้ส่วนเสียทั้งหมดที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI
  • เพิ่มทักษะและความสามารถ เสริมสร้างความมั่นใจว่าพนักงานในองค์กรแผนกที่ใช้งาน AI จะมีความรู้และทักษะที่จำเป็นในการพัฒนาและจัดการระบบ AI อย่างมีความรับผิดชอบ

เสาที่ 2: AI Strategy

การกำหนดกลยุทธ์การประยุกต์ใช้ AI เริ่มตั้งแต่การตัดสินใจเลือก use case ที่เหมาะสมจะใช้งาน AI การพิจารณาจัดซื้อจัดจ้างแพลตฟอร์ม AI (เช่น ซื้อหรือเช่า) การบริหารจัดการความเสี่ยง และการวาง Roadmap การใช้งาน AI ประกอบด้วยขั้นตอนต่าง ๆ ได้แก่

  • กำหนดกลยุทธ์การประยุกต์ใช้ AI อย่างมีความรับผิดชอบ  (Responsible AI Strategy) ให้มีความชัดเจนและสอดคล้องกับเป้าหมายและค่านิยมองค์กร โดยเริ่มจากมองหาโอกาสในการใช้งาน กำหนดเป้าหมายตามลำดับความสำคัญและความพร้อม กำหนดกลยุทธ์การบริหารจัดการข้อมูลเพื่อสนับสนุนการประยุกต์ใช้ AI และจัดทำเป็นแผน Roadmap หรือ Prototype
  • ระบุและประเมินความเสี่ยง (Identifying & Assessing AI-related risks) ที่อาจเกิดขึ้นที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI ในเชิงรุก เช่น คุณภาพของข้อมูล (Data Quality) การอยู่นอกเหนือความสามารถในการกำกับดูแล (Non-compliance) ช่องโหว่ด้านความปลอดภัย (Cyber Attack) ความเสี่ยงเหล่านี้อาจรวมถึงอคติ (Bias) การเลือกปฏิบัติ (Discrimination) และการละเมิดความเป็นส่วนตัว (Privacy)
  • พัฒนา/ปรับใช้แผนบริหารความเสี่ยง (AI Risk Management Framework) สร้างแผนหรือปรับใช้แผนมาตรฐานสากลเพื่อลดความเสี่ยง AI แผนนี้อาจเกี่ยวข้องกับการควบคุมการนำไปใช้ เช่น อัลกอริธึมการตรวจจับอคติและมาตรการรักษาความปลอดภัยข้อมูล
  • พิจารณาระดับการมีส่วนร่วมของมนุษย์ (Level of Human Involvement) เมื่อประยุกต์ใช้ระบบ AI ให้พิจารณาระดับการมีส่วนร่วมของมนุษย์ที่เหมาะสมตลอดทั้ง AI lifecycle ซึ่งอาจเกี่ยวข้องกับ

- แนวทางแบบ human-in-the-loop ที่มนุษย์มีส่วนร่วมในการตัดสินใจ เช่น AI ทางการแพทย์

- แนวทางแบบ human-over-the-loop ที่มนุษย์มีอำนาจในการควบคุมดูแล เช่น AI ตรวจวัดคุณภาพ

- แนวทางแบบ human-out-the-loop ที่มนุษย์อยู่นอกกรอบที่ AI ทำงานอัตโนมัติ (แต่มีการตรวจสอบอย่างรอบคอบ) เช่น AI Chatbot

ทั้งนี้ ระดับการมีส่วนร่วมของมนุษย์ควรขึ้นอยู่กับลักษณะของความเสี่ยงของระบบ AI และผลกระทบจากข้อผิดพลาด

เสาที่ 3: AI Operation

ขั้นตอนการดำเนินการหลังการประยุกต์ใช้ AI แล้วว่าจะติดตาม ตรวจตรา และเฝ้าสังเกต (Monitoring) ได้อย่างไร ประกอบด้วย

  • การจัดการวงจรชีวิต AI (AI Lifecycle) สร้างกระบวนการสำหรับจัดการวงจรชีวิตทั้งหมดของระบบ AI ตั้งแต่การออกแบบและการพัฒนาไปจนถึงการใช้งานและการตรวจสอบ ซึ่งควรรวมถึงการพิจารณาระดับการควบคุมดูแลของมนุษย์ที่จำเป็นในแต่ละขั้นตอน
  • การจัดการบริการ AI (AI Service) เพื่อให้มั่นใจว่าการประยุกต์ใช้ AI จะได้รับการส่งมอบบริการจากผู้พัฒนาแพลตฟอร์มอย่างราบรื่นตาม Service Level Agreement (SLA) มีความน่าเชื่อถือ และความปลอดภัย ภายใต้การจัดการอย่างมีความรับผิดชอบ ซึ่งรวมถึงการปฏิบัติตามข้อกำหนดการควบคุมดูแลของมนุษย์ที่กำหนดไว้ในแผนการจัดการวงจรชีวิต มีการประกาศนโยบายและให้ข้อมูลการกำกับดูแล AI ขององค์กรอย่างชัดเจน ซึ่งจะช่วยให้พนักงานในองค์กรเข้าใจบทบาทของตนในการพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบ

ข้อพิจารณาเพิ่มเติม

รายละเอียดต่าง ๆ ภายใน AI Governance Framework อาจมีความแตกต่าง และได้รับการปรับปรุงให้เหมาะสมขึ้นอยู่กับขนาด ประเภทอุตสาหกรรม และลักษณะ/รูปแบบความเสี่ยงที่ป้องกันได้ขององค์กร

การติดตาม AI Governance Guideline ฉบับปรับปรุงล่าสุดจากหน่วยงานภาครัฐที่รับผิดชอบเป็นสิ่งจำเป็น เพื่อเอื้อให้เกิดการปรับกรอบการทำงานขององค์กรที่เหมาะสมอย่างต่อเนื่อง

ควรหมั่นตรวจสอบและประเมินกรอบการกำกับดูแลการประยุกต์ใช้ AI เป็นประจำเพื่อให้แน่ใจว่าบริบทต่าง ๆ ที่กำกับดูแล AI ที่องค์กรใช้งาน จะยังคงมีประสิทธิภาพ

การปฏิบัติตามแนวทางข้างต้น สามารถผลักดันให้เกิดการสร้างกรอบการกำกับดูแล AI ที่มีประสิทธิภาพ ผู้นำองค์กรจะรู้สึกมั่นใจได้ว่าองค์กรกำลังพัฒนาและประยุกต์ใช้ AI อย่างมีความรับผิดชอบ ช่วยลดความเสี่ยง สร้างความไว้วางใจกับผู้มีส่วนได้ส่วนเสีย และปลดล็อกศักยภาพสูงสุดของ AI เพื่อความยั่งยืนทางธุรกิจ

ทั้งหมดนี้เป็นส่วนหนึ่งของเนื้อหาที่ OPEN-TEC ได้รวบรวมไว้จากงานสัมมนา “TMA Digital Dialogue 2024” ที่จัดโดย สมาคมการจัดการธุรกิจแห่งประเทศไทย (TMA) โดยกลุ่ม Digital Technology Management Group ร่วมกับ สำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa)

บทความโดย OPEN-TEC

แหล่งอ้างอิงส่วนหนึ่งจาก

1เปิด 6 โปรเจกต์ดันแผน AI ประเทศไทย

2ดร. ศักดิ์ เสกขุนทด ให้เกียรติเป็นแขกรับเชิญสัมภาษณ์ในรายการ open talk โปรแกรมภายใต้ OPEN-TEC EP.40 ร่วมสำรวจโลกของ Generative AI ตั้งแต่การทำความรู้จัก ทำความเข้าใจถึงหลักการทำงานขั้นพื้นฐาน การประยุกต์ใช้ ไปจนถึงความท้าทาย และโอกาสจากการใช้ Generative AI เพื่อให้เกิดประโยชน์สูงสุด

แนวทางการประยุกต์ใช้ปัญญาประดิษฐ์อย่างมีธรรมาภิบาล สำหรับผู้บริหารองค์กร โดย ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Center: AIGC)