การจัดการความรู้
 
การกำกับดูแล AI อย่างมีธรรมาภิบาลและความรับผิดชอบ (AI Governance Workshop)
post: 2025-09-15 10:44:03     by: อารีรัตน์ วงศ์สุวรรณ     views: 96
กลุ่ม: OCN KM Bank


       

   เป็นการเรียนรู้มาตรฐาน AI ที่เกี่ยวข้องในปัจจุบัน สำหรับใช้เป็นแนวทาง ในการอ้างอิงที่สากลยอมรับ วิธีการและมาตรการที่ช่วยป้องกันปัญหาความเสี่ยงในระบบ AI รวมถึงฝึกการประเมินและจัดการความเสี่ยงในโครงการ AI เพื่อให้สามารถควบคุมความเสี่ยงให้อยู่ในระดับที่ยอมรับได้ ตลอดจนนำความรู้ที่ได้มาปรับใช้ให้เหมาะสมกับองค์กร เพื่อให้ได้ระบบ AI ที่มีความน่าเชื่อถือและพร้อม ใช้งานได้ต่อไป

   เนื่องจากผู้เขียนมีโอกาสได้เข้าร่วมรับการฝึกอบรมเชิงปฏิบัติการ ที่จัดขึ้นสำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สวทช.) โดยสถาบันพัฒนาบุคลากรแห่งอนาคต ระหว่างวันที่ 1-2 เมษายน 2568 รวมจำนวน 2 วัน ซึ่งได้รับความรู้ความเข้าใจและมีทักษะเกี่ยวกับการกำกับดูแล AI อย่างมีธรรมาภิบาลและความรับผิดชอบ โดยสรุปพอสังเขป ดังนี้

1. หลักการจริยธรรมปัญญาประดิษฐ์ของสำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ (สดช)

ประกอบด้วย 6 หลักการดังนี้

  1. ความสามารถในการแข่งขันและการพัฒนาอย่างยั่งยืน (Competitiveness and Sustainable Development)
    AI ควรได้รับการออกแบบและพัฒนาเพื่อสร้างประโยชน์และคุณค่าให้แก่มนุษย์ สังคม เศรษฐกิจ และสิ่งแวดล้อมอย่างยั่งยืน รวมถึงเพิ่มความสามารถในการแข่งขันและสร้างความเจริญให้แก่ทุกภาคส่วนอย่างเป็นธรรม

  2. ความสอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล (Laws, Ethics, and International Standards) 
    AI ควรได้รับการออกแบบและพัฒนาให้สอดคล้องกับกฎหมาย บรรทัดฐาน จริยธรรม คุณธรรมของมนุษย์ และมาตรฐานสากล โดยเคารพต่อความเป็นส่วนตัว เกียรติ สิทธิ เสรีภาพ และสิทธิมนุษยชน รวมทั้งควรได้รับการออกแบบโดยมีมนุษย์เป็นศูนย์กลางและเป็นผู้ตัดสินใจ (Human-Centered Design) และไม่ควรถูกออกแบบเพื่อใช้ในการกำหนดชะตาชีวิตของมนุษย์

  3. ความโปร่งใสและความรับผิดชอบต่อผลของการกระทำ (Transparency and Accountability) 
    AI ควรได้รับการออกแบบและพัฒนาให้มีความโปร่งใสโดยจะต้องสามารถอธิบาย (Explainability) และคาดการณ์ผลลัพธ์จากการทำงานได้ มีการเฝ้าระวังและติดตามความผิดปกติ สามารถติดตามกิจกรรมต่างๆ ที่เกิดขึ้นโดย AI ได้ (Traceability) สามารถวินิจฉัยปัญหาและข้อผิดพลาดที่เกิดขึ้นได้ (Diagnosability) นอกจากนี้ควรมีการกำหนดหน้าที่และความรับผิดชอบ (Role and Responsibility) รวมถึงความรับผิดชอบต่อผลของการกระทำ (Accountability) ที่เกิดขึ้นจาก AI

  4. ความมั่นคงปลอดภัยและความเป็นส่วนตัว (Security and Privacy) 
    AI ควรได้รับการออกแบบและพัฒนาให้คำนึงถึงการรักษาความมั่นคงปลอดภัยและการรักษาความเป็นส่วนตัว โดยจัดให้มีมาตรการป้องกันการโจมตีทางไซเบอร์ และปฏิบัติตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล

  5. ความเท่าเทียม หลากหลาย ครอบคลุม และเป็นธรรม (Fairness) 
    ในการใช้งาน AI อย่างเป็นธรรมและลดความอคติ (Bias) AI ควรได้รับการออกแบบและพัฒนาให้คำนึงความหลากหลาย (Diversity) ลดการเอนเอียง แบ่งแยก และเลือกปฏิบัติ (Discrimination) ต่อบุคคลหรือกลุ่มคนที่มีคุณลักษณะที่แตกต่างกัน (อาทิ อายุ เพศ ลักษณะทางกายภาพ เชื้อชาติ กลุ่มคนผู้ด้อยโอกาสในสังคม) รวมถึงสามารถพิสูจน์ถึงความเป็นธรรมสำหรับทุกฝ่ายที่เกี่ยวข้อง

  6. ความน่าเชื่อถือ (Reliability) 
    AI ควรได้รับการออกแบบและพัฒนาให้มีการทำงานอย่างถูกต้อง มีความน่าเชื่อถือ และสามารถจัดการกับความผิดพลาดที่เกิดขึ้นได้ในระดับหนึ่ง มีการควบคุมคุณภาพของข้อมูลที่นำมาใช้กับ AI มีกระบวนการและช่องทางรับฟังความคิดเห็นจากผู้ใช้งาน มีการรับเรื่องร้องเรียน แจ้งปัญหาที่พบ และมีการตอบสนองเรื่องร้องเรียนหรือปัญหาที่พบอย่างทันกาล

center

2. กรอบการดำเนินงานเพื่อให้เกิดธรรมาภิบาลในการใช้งาน AI 

center

1. โครงสร้างชองการกำกับดูแล AI

2. กลยุทธ์ AI และแผนปฏิบัติการ อาจใช้ขั้นตอนการดำเนินการดังนี้

    1. ประเมินปัจจัยภายในและภายนอกองค์กร

    2. วิเคราะห์ SWOT ขององค์กร

    3. กำหนดทิศทางและกลยุทธ์ขององค์กร

    4. กำหนดวัตถุประสงค์ภายใต้กลยุทธ์ขององค์กร

    5. กำหนดตัวชี้วัด (Key Performance Indicator - KPI) ภายใต้วัตถุประสงค์ดังกล่าว

    6. กำหนดโครงการ เป้าหมายของโครงการ ผู้รับผิดชอบ และงบประมาณที่จำเป็นต้องใช้

    7. รวบรวมโครงการทั้งหมดเป็นแผนปฏิบัติการขององค์กร เพื่อขอการอนุมัติจากคณะกรรมการกำกับดูแล AI

    3. การกำกับดูแล AI ตลอดวงจรชีวิต

    ประกอบด้วย 8 ขั้นตอนดังนี้

    1. การกำหนดปัญหา วิเคราะห์ความต้องการของผู้มีส่วนได้ส่วนเสีย, เก็บรวมรวมความต้องการ, กำหนดเกณฑ์การวัดความสำเร็จ เป็นต้น
    2. การเก็บรวบรวมข้อมูล ดำเนินการจัดหาข้อมูลจากแหล่งที่จัดเตรียมไว้, ประเมินคุณภาพของข้อมูล, ใช้การเข้ารหัสข้อมูลสำหรับข้อมูลที่มีความอ่อนไหว เป็นต้น
    3. การจัดเตรียมข้อมูล ทำความสะอาดข้อมูล, บูรณาการข้อมูลจากหลายๆ แหล่งเพื่อรวมข้อมูลเป็นหนึ่งเดียว, ปรับปรุงรูปแบบของข้อมูล เป็นต้น
    4. การออกแบบโมเดล เลือกอัลกอริทึมที่ต้องการนำมาใช้งาน, ออกแบบสถาปัตยกรรมของโมเดล, กำหนดมาตรการด้านความมั่นคงปลอดภัย เป็นต้น
    5. การฝึกหัดโมเดล เป็นการทำให้โมเดลเรียนรู้จากชุดข้อมูลของขั้นตอนที่ 3 ที่จะทำให้โมเดลสามารถมองเห็น Pattern และความสัมพันธ์ภายในชุดข้อมูลที่นำมาใช้ในการเรียนรู้
    6. การประเมินโมเดล เพื่อประเมินประสิทธิภาพของโมเดลที่ผ่านการฝึกหัดมาแล้วนั่นเอง ประเมินความถูกต้องและวิเคราะห์ความคลาดเคลื่อนในการประมวลผลของโมเดลว่าอยู่ในระดับใด กรณีที่ประสิทธิภาพของโมเดลอยู่ในระดับที่ยังไม่พึงพอใจ ให้กลับไปขั้นตอนที่ 5 เพื่อฝึกหัดโมเดลใหม่อีกครั้งหนึ่ง
    7. การนำโมเดลไปสู่การใช้งาน นำโมเดลที่ได้จากการพัฒนาเสร็จสิ้นไปใช้งาน
    8. การเฝ้าระวังและติดตามการทำงานของโมเดล เฝ้าระวังความผิดปกติของข้อมูลนำเข้า, นำผลตอบกลับจากผู้มีส่วนได้ส่วนเสียไปใช้ในการปรับปรุงประสิทธิภาพของโมเดล, รักษาความสอดคล้องกับกฎหมาย ระเบียบ หรือข้อบังคับที่เกี่ยวข้อง เป็นต้น

    3. ความเสี่ยงที่เกี่ยวข้องกับ AI  และกรอบการบริหารความเสี่ยงของ AI (Artificial Intelligence Risk Management Framework -- AI RMF 1.0)

    1. ความเสี่ยงด้านความไม่เป็นธรรมและการเลือกปฏิบัติ
           อคติที่มาจากโมเดล อคติที่มาจากชุดข้อมูล เช่น การใช้ชุดข้อมูลที่ขาดความหลากหลายหรือเอนเอียงไปในด้านใดด้านหนึ่งมากเกินไป
    2. ความเสี่ยงด้านภัยคุกคามทางไซเบอร์
    3. ความเสี่ยงด้านการละเมิดข้อมูลส่วนบุคคล
    4. ความเสี่ยงด้านการไม่ปฏิบัติตามกฎหมาย ระเบียบ และข้อบังคับที่เกี่ยวข้อง
    5. ความเสี่ยงด้านความน่าเชื่อถือของระบบ
    6. ความเสี่ยงด้านความโปร่งใสของระบบ
    7. ความเสี่ยงด้านการไม่สามารถอธิบายการทำงานของระบบได้อย่างชัดเจน
    8. ความเสี่ยงด้านความปลอดภัยของระบบ
    9. ความเสี่ยงด้านคุณภาพของข้อมูล

    ที่กล่าวมาเป็นเพียงบางส่วนของการกำกับดูแล AI อย่างมีธรรมาภิบาลและความรับผิดชอบ ซึ่งผู้สนใจศึกษารายละเอียดเพิ่มเติมหรือลงทะเบียนเข้าร่วมฝึกอบรมกได้ที่ สำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สวทช.) โดยสถาบันพัฒนาบุคลากรแห่งอนาคต เว็บไวต์ : https://www.career4future.com

    ที่มา: เอกสารประกอบการอบรมการกำกับดูแล AI อย่างมีธรรมาภิบาลและความรับผิดชอบ วิทยากรโดย ดร. บรรจง หะรังษีรองกรรมการผู้จัดการ และที่ปรึกษาด้านความมั่นคงปลอดภัยระบบสารสนเทศบริษัท ที-เน็ต จำกัด






    Login
    Username
    Password

    สำหรับผู้เข้าใช้งานครั้งแรก



    (เฉพาะบุคลากรมหาวิทยาลัยเท่านั้น)
     
    กลุ่มชุมชนนักปฏิบัติ
    IT UBU (79 บทความ)
    Tech & Innovation in New Normal (38 บทความ)
    UBU Library Services (35 บทความ)
    Go Green (องค์กรสีเขียว) (34 บทความ)
    OCN KM Bank (30 บทความ)
    ทำอย่างไรให้สะดวกและความปลอดภัยในการทำงาน (30 บทความ)
    กลุ่มทั้งหมด
    บทความใหม่
    เทคนิคการช่วยให้เพื่อนร่วมงานจดจำคำศัพท์ภาษาอังกฤษในสำนักงานได้ง่ายขึ้น (2026-04-14 20:53)
    ทำไม mac os ถึงเลือกใช้ zsh เป็น shell หลัก (2026-04-04 07:04)
    ถอดรหัส EdPEx สู่การปฏิบัติจริง: พลังสายสนับสนุนขับเคลื่อนองค์กรสู่ความเป็นเลิศ (EdPEx for Supporting Staff) (2026-04-02 23:53)
    ถอดบทเรียนงานบุคคลยุคดิจิทัล: พลิกโฉมการตรวจสอบเอกสาร ก.พ.อ. 03 ด้วย AI และ Visual Design แบบ Zero Error (2026-03-31 15:54)
    คลีนิคให้คำปรึกษาด้านวิชาการคณะรัฐศาสตร์ (2026-03-27 14:29)
    คู่มือการลงลายมือชื่อหนังสืออิเล็กทรอนิกส์ (2026-03-27 08:45)
     
    บทความยอดนิยม
    PESTEL Analysis : เครื่องมือในการวิเคราะห์ปัจจัยภายนอก (7479 view)
    เกณฑ์ AUN-QA Overview (Versions 4) (3543 view)
    การจัดการศึกษาแบบ Outcome-Based Education : Backward Curriculum Design (3491 view)
    Mesh / Access Point คืออะไร ? ทำไมคนถึงชอบเข้าใจผิด (2570 view)
    ภาพรวมเกณฑ์ AUN-QA Version 4.0 (2215 view)
    แนะนำ Google AppSheet ช่วยพัฒนา Mobile Applications เป็นเรื่องง่าย และฟรี (1917 view)