Responsible AI

Responsible AI

ข่าวและบทความที่เกี่ยวข้อง

Related news and articles

PostType Filter En

บทความ

AI Governance: เข็มทิศนำทางสู่ปัญญาประดิษฐ์ที่น่าเชื่อถือ
ในยุคที่ปัญญาประดิษฐ์ (AI) เข้ามามีบทบาทสำคัญต่อการดำเนินธุรกิจและการใช้ชีวิตประจำวัน เราจำเป็นต้องเข้าใจว่า AI ไม่ใช่แค่เครื่องมือธรรมดา แต่เป็นเทคโนโลยีที่สามารถใช้งานได้หลากหลาย ส่งผลให้ผู้ใช้มีอิทธิพลต่อผลลัพธ์ที่เกิดขึ้น เปรียบเสมือนกับค้อนที่สามารถใช้ตอกตะปูหรือทำกิจกรรมอื่น ๆ ได้ จึงควรเตรียมความพร้อมและสร้างความเข้าใจให้กับบุคลากรและผู้มีส่วนได้ส่วนเสีย เพื่อป้องกันความเสี่ยงไม่ว่าจะเป็น ความเสี่ยงที่เกิดจากการกระทำโดยเจตนา (Intentional) เช่น Deepfake Scam หรือ Autonomous Weapons และความเสี่ยงที่ไม่ได้เกิดจากความตั้งใจ (Unintentional) เช่น ความผิดพลาดโดยไม่เจตนา หรือภัยธรรมชาติ ซึ่งเป็นปัญหาหลักที่องค์กรควรให้ความสำคัญ โดยรวมถึงข้อมูลที่ AI ใช้ในการเรียนรู้เกิดความลำเอียง (Bias Training Data) AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้อง ไม่เป็นความจริง หรือไม่สมเหตุสมผล (Hallucination) คำแนะนำหรือการตัดสินใจที่ผิดพลาด ปัญหาลิขสิทธิ์ เป็นต้น โดยเฉพาะอย่างยิ่ง หากท่านผู้อ่านเป็นผู้บริหารแล้ว ควรทำความเข้าใจและจัดการความเสี่ยงจาก AI อย่างรอบด้านผ่านคำถาม ดังนี้ หลักการกำกับดูแล AI (AI Principles) แนวทางในการพัฒนา ใช้งาน และกำกับดูแลเทคโนโลยี AI คำนึงถึงผลกระทบทางจริยธรรม สังคม และกฎหมาย โดยเน้นให้ AI สร้างประโยชน์ต่อมนุษย์และสังคม พร้อมลดความเสี่ยงและผลกระทบเชิงลบที่อาจเกิดขึ้น  ได้แก่ ภาพรวม AI Governance ในระดับสากลและไทย ในระดับสากล โดยเฉพาะสหประชาชาติ (UN) ให้ความสำคัญกับการกำกับดูแล AIโดยเน้นไปที่ สิทธิมนุษยชน จริยธรรม และความยุติธรรม เป็นหลัก ต่างจากสหรัฐอเมริกา ที่ขับเคลื่อนด้วยกลไกตลาด เน้นการแข่งขัน ประสิทธิภาพ และนวัตกรรมมากกว่า จีนเน้นการลงทุนโครงสร้างพื้นฐาน และการควบคุมโดยรัฐ และสหภาพยุโรปเน้นการกำกับดูแลเพื่อปกป้องสิทธิเสรีภาพของประชาชน สำหรับประเทศไทย คาดว่าจะไม่มีการออกกฎหมาย AI ในเร็วๆ นี้ และแนวโน้ม คือการพัฒนามาตรฐานอุตสาหกรรมโดยหลายภาคส่วนร่วมกัน ไม่ใช่แค่รัฐบาลเดียว องค์กรจึงควรแสดงให้เห็นว่าการใช้ AI สอดคล้องกับนโยบายเพื่อหลีกเลี่ยงการถูกมองว่าไม่รับผิดชอบต่อสังคมหรือที่เรียกว่า Social License to Operate และเพื่อประเมินความเสี่ยงของผลิตภัณฑ์ โดยเทียบกับ EU AI Act ที่แบ่งความเสี่ยงเป็น 4 ระดับตามแนวทาง Risk-Based Approach ได้แก่ โดยสิ่งที่สำคัญคือจะต้องใช้แนวทางในการ “อิงตามความเสี่ยง (Risk-Based)” เพื่อให้เข้าใจประเภทของความเสี่ยง (กฎหมาย จริยธรรม การดำเนินงาน) และใช้แนวทาง Integration-Based เพื่อบูรณาการและพิจารณาร่วมกันจากหลาย ๆ ฝ่ายโดยใช้เครื่องมือและกลไกที่หลากหลาย บทสรุป การกำกับดูแล AI ถูกให้ความสำคัญทั้งในระดับสากลและในประเทศไทย โดยมีเป้าหมายเพื่อคุ้มครองสิทธิส่วนบุคคลและสร้างความยุติธรรมในการใช้งาน เทรนด์ทั่วโลกสะท้อนให้เห็นหลายแนวทาง ไม่ว่าจะเป็นการเน้นจริยธรรมและสิทธิมนุษยชนของสหประชาชาติ การขับเคลื่อนด้วยนวัตกรรมในสหรัฐอเมริกา หรือการควบคุมโดยรัฐในจีน ขณะที่สหภาพยุโรปออกกฎหมายเพื่อคุ้มครองเสรีภาพประชาชน สำหรับไทย แม้ยังไม่มีการออกกฎหมาย AI โดยตรง แต่มีแนวโน้มเน้นการพัฒนามาตรฐานร่วมกันจากหลายภาคส่วน องค์กรจึงควรดำเนินงานอย่างโปร่งใสและมีความรับผิดชอบต่อสังคม ควรประเมินความเสี่ยงของ AI ด้วยแนวทางอิงตามความเสี่ยง เพื่อให้มั่นใจว่าสอดคล้องกับมาตรฐานและไม่เกิดผลกระทบเชิงลบ โดยเฉพาะกับระบบที่มีความเสี่ยงสูง ทั้งนี้ การบูรณาการความร่วมมือกับหลายฝ่ายและเลือกใช้เครื่องมือที่เหมาะสมจะช่วยสร้างความเชื่อมั่นในการนำ AI ไปใช้ในสังคมได้อย่างยั่งยืน เอกสารอ้างอิง https://arxiv.org/pdf/2407.01294 https://www.aiaaic.org/aiaaic-repository https://www.theguardian.com/society/article/2024/jun/23/dwp-algorithm-wrongly-flags-200000-people-possible-fraud-error https://doi.org/10.1007/s13347-021-00474-3 https://s41721.pcdn.co/wp-content/uploads/2021/06/Executive-Summary-2022-Report.pdf https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf
7 July 2025

บทความ

Responsible AI: ปัญญาประดิษฐ์ที่มีความรับผิดชอบ 
ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังก้าวหน้าอย่างรวดเร็วและมีบทบาทสำคัญในหลากหลายแง่มุมของชีวิตเรา แนวคิดเรื่อง Responsible AI หรือปัญญาประดิษฐ์ที่มีความรับผิดชอบ จึงเป็นประเด็นที่ได้รับความสนใจมากขึ้นเรื่อย ๆ แต่ Responsible AI คืออะไร และทำไมจึงมีความสำคัญ ? บทความนี้จะพาคุณไปทำความรู้จักกับแนวคิดนี้อย่างละเอียด  Responsible AI คืออะไร?  Responsible AI หมายถึงแนวทางในการพัฒนา ใช้งาน และกำกับดูแลเทคโนโลยี AI ที่คำนึงถึงผลกระทบทางจริยธรรม สังคม และกฎหมาย โดยมุ่งเน้นให้ AI สร้างประโยชน์สูงสุดแก่มนุษย์และสังคม ขณะเดียวกันก็ลดความเสี่ยงและผลกระทบเชิงลบที่อาจเกิดขึ้น  หลักการสำคัญของ Responsible AI  1. ความโปร่งใส (Transparency): ระบบ AI ควรสามารถอธิบายกระบวนการตัดสินใจได้ เพื่อให้ผู้ใช้เข้าใจและตรวจสอบได้  2. ความเป็นธรรม (Fairness): ลดอคติและการเลือกปฏิบัติในการทำงานของ AI เพื่อให้มั่นใจว่าทุกคนได้รับการปฏิบัติอย่างเท่าเทียม  3. ความปลอดภัยและความน่าเชื่อถือ (Safety and Reliability): AI ต้องทำงานอย่างปลอดภัยและเชื่อถือได้ โดยมีการทดสอบและตรวจสอบอย่างรัดกุม  4. ความเป็นส่วนตัว (Privacy): ปกป้องข้อมูลส่วนบุคคลของผู้ใช้และเคารพสิทธิความเป็นส่วนตัว  5. ความรับผิดชอบ (Accountability): มีกลไกรับผิดชอบเมื่อเกิดปัญหาจากการใช้ AI และมีการกำหนดผู้รับผิดชอบอย่างชัดเจน  6. ผลกระทบต่อสังคม (Social Impact): พิจารณาผลกระทบในวงกว้างต่อสังคม เศรษฐกิจ และสิ่งแวดล้อม  Responsible AI เป็นแนวคิดสำคัญในการพัฒนาและใช้งานปัญญาประดิษฐ์อย่างมีความรับผิดชอบ โดยมุ่งเน้นการสร้างความไว้วางใจ ลดความเสี่ยง และส่งเสริมนวัตกรรมที่เป็นประโยชน์ต่อสังคม ขณะเดียวกันก็เตรียมพร้อมรับมือกับกฎระเบียบที่อาจเกิดขึ้นในอนาคต อย่างไรก็ตาม การนำ Responsible AI ไปปฏิบัติยังคงมีความท้าทายหลายประการ ทั้งในแง่ของความซับซ้อนของเทคโนโลยี การสร้างสมดุลระหว่างนวัตกรรมและความรับผิดชอบ ความแตกต่างทางวัฒนธรรม และการวัดผลความสำเร็จ การตระหนักถึงความสำคัญและความท้าทายเหล่านี้จะช่วยให้องค์กรและผู้พัฒนาสามารถก้าวไปข้างหน้าในการสร้างระบบ AI ที่มีประสิทธิภาพและรับผิดชอบต่อสังคมได้อย่างยั่งยืน  แนวทาง Responsible AI ของบริษัทเทคโนโลยีชั้นนำ  เพื่อให้เห็นภาพที่ชัดเจนขึ้นว่า Responsible AI ถูกนำไปปฏิบัติอย่างไรในโลกธุรกิจ เรามาดูการเปรียบเทียบแนวทางของบริษัทยักษ์ใหญ่ด้านเทคโนโลยี ได้แก่ Google, Microsoft, Amazon, IBM, OpenAI และ Facebook ดังตาราง  Google: ให้ความสำคัญกับความโปร่งใสและความเป็นธรรมใน AI เป็นอย่างมาก โดยมีหลักการ AI ที่ชัดเจนและเครื่องมืออย่าง AI Explainability เพื่อให้ผู้ใช้เข้าใจการทำงานของโมเดล AI ได้ดีขึ้น นอกจากนี้ Google ยังมีโครงการต่างๆ เช่น Project AI ที่มุ่งเน้นการพัฒนา AI ที่เป็นประโยชน์ต่อสังคม  Microsoft: เน้นย้ำถึงความรับผิดชอบและความปลอดภัยในการพัฒนา AI โดยมี Responsible AI Standard เป็นแนวทางในการพัฒนาผลิตภัณฑ์ AI ทั้งหมด นอกจากนี้ Microsoft ยังมีโครงการ AI for Earth และ AI for Good ที่มุ่งใช้ AI แก้ปัญหาสิ่งแวดล้อมและสังคม  Amazon: ให้ความสำคัญกับความโปร่งใสและความรับผิดชอบในการใช้ AI โดยมีเครื่องมือตรวจจับอคติและกระบวนการตรวจสอบที่เข้มงวด นอกจากนี้ Amazon ยังสนับสนุนการวิจัยด้าน AI ผ่านโครงการ Amazon Scholar และนำ AI มาใช้เพื่อพัฒนาผลิตภัณฑ์และบริการต่างๆ  IBM: เน้นย้ำถึงความน่าเชื่อถือ ความโปร่งใส และความเป็นธรรมในการพัฒนา AI โดยมีเครื่องมืออย่าง AI Fairness 360 และ AI OpenScale เพื่อช่วยให้นักพัฒนาสร้างโมเดล AI ที่เป็นธรรมและโปร่งใส นอกจากนี้ IBM ยังมีโครงการ Project Debater ที่พัฒนา AI เพื่อโต้แย้งกับมนุษย์  OpenAI: เน้นย้ำถึงความปลอดภัยและประโยชน์ต่อมนุษยชาติในการพัฒนา AI โดยใช้เทคนิค Reinforcement Learning from Human Feedback (RLHF) เพื่อฝึกสอนโมเดล AI ให้เป็นไปตามค่าที่มนุษย์ต้องการ นอกจากนี้ OpenAI ยังเปิดเผยข้อมูลทางเทคนิคเกี่ยวกับโมเดล AI เพื่อส่งเสริมความโปร่งใส  Meta (Facebook): เน้นย้ำถึงความเป็นธรรม ความโปร่งใส และความรับผิดชอบในการพัฒนา AI โดยมีเครื่องมือ Fairness Flow เพื่อช่วยให้นักพัฒนาตรวจสอบและแก้ไขปัญหาอคติในโมเดล AI นอกจากนี้ Meta ยังมี Oversight Board เพื่อตรวจสอบการตัดสินใจที่สำคัญของบริษัทเกี่ยวกับเนื้อหาบนแพลตฟอร์ม  บริษัทเทคโนโลยีชั้นนำเหล่านี้ต่างให้ความสำคัญกับการพัฒนา AI อย่างรับผิดชอบ โดยมีแนวทางและเครื่องมือที่หลากหลายเพื่อช่วยให้มั่นใจว่า AI จะถูกนำมาใช้ในทางที่ดีและเป็นประโยชน์ต่อสังคม  แนวทาง Responsible AI ของหน่วยงานภาครัฐในประเทศไทย  สำหรับประเทศไทย แม้จะยังไม่มีกรอบการทำงานหรือแนวทางปฏิบัติด้าน Responsible AI ที่เป็นทางการ แต่ก็มีความพยายามในการพัฒนาในด้านนี้ สรุปสถานการณ์ปัจจุบันของไทยได้ดังนี้:  1. ยุทธศาสตร์ปัญญาประดิษฐ์แห่งชาติ:     กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (MDES) ได้จัดทำ “ยุทธศาสตร์ปัญญาประดิษฐ์แห่งชาติ” ซึ่งมีการกล่าวถึงประเด็นด้านจริยธรรมและความรับผิดชอบในการพัฒนาและใช้งาน AI โดยหลักการสำคัญที่สะท้อนถึงแนวคิด Responsible AI ในยุทธศาสตร์ฯ ได้แก่   การพัฒนาอย่างยั่งยืน: เน้นการนำ AI มาใช้เพื่อแก้ไขปัญหาสังคมและเศรษฐกิจอย่างยั่งยืน โดยคำนึงถึงผลกระทบในระยะยาวต่อสิ่งแวดล้อมและสังคม  ความโปร่งใส: การพัฒนาและใช้งาน AI ต้องมีความโปร่งใส สามารถตรวจสอบได้ และสามารถอธิบายได้ว่า AI ทำงานอย่างไร  ความเป็นธรรม: การออกแบบและพัฒนา AI ต้องปราศจากอคติ และไม่ก่อให้เกิดความไม่เท่าเทียม  ความปลอดภัย: การพัฒนาและใช้งาน AI ต้องมีความปลอดภัย ไม่ก่อให้เกิดอันตรายต่อบุคคลหรือทรัพย์สิน  ความรับผิดชอบ: ผู้พัฒนาและผู้ใช้งาน AI ต้องมีความรับผิดชอบต่อผลกระทบที่เกิดจากการใช้งาน AI  2. แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ ของ ETDA:     แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ หรือ AI Ethics Guideline ที่จัดทำโดยสำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สพธอ.) หรือ ETDA นั้น...
30 August 2024
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings