ในยุคปัจจุบันที่เทคโนโลยีเข้ามามีบทบาทในชีวิตประจำวัน ปัญญาประดิษฐ์ (AI) ได้เข้ามามีส่วนในการยกระดับการทำงานให้มีความง่ายดายและสะดวกรวดเร็ว ไม่ว่าจะเป็นพนักงานออฟฟิศที่ได้ใช้ AI ในการวิเคราะห์ข้อมูลปริมาณมาก ศิลปินที่ได้นำ AI มาใช้ในการออกแบบโครงร่างงานศิลป์ หรือนักเรียนนักศึกษาที่สามารถใช้ประโยชน์จาก AI ในการเข้าถึงองค์ความรู้เชิงลึก จึงปฏิเสธไม่ได้ว่า AI ได้เปิดประตูสู่โอกาสใหม่ ๆ มากมายอันจะช่วยให้ชีวิตของเราก้าวล้ำไปอีกขั้น
อย่างไรก็ตาม เช่นเดียวกับนวัตกรรมอื่น การพัฒนาและการใช้งาน AI ยังมีประเด็นที่ต้องปรับปรุง ดังจะเห็นได้จากข่าวที่บริษัทผู้พัฒนา AI ถูกฟ้องร้องจากการนำเนื้อหาที่ไม่ได้รับอนุญาตจากเจ้าของไปทำการฝึกฝน AI ของตน การที่ AI ประมวลข้อมูลและรายงานผลคลาดเคลื่อนไปจากข้อเท็จจริง ตลอดจนการนำ AI ไปใช้ในการสร้างข่าวลวง ภาพและวิดีโอด้วยเทคนิค deep fake เป็นต้น ดังนั้น การพัฒนาและการใช้งาน AI อย่างมีจริยธรรม หรือ Ethical AI จึงมีความสำคัญอย่างยิ่งหากเราต้องการใช้เทคโนโลยีดังกล่าวอย่างเต็มประสิทธิภาพและไม่ขัดกับกฎหมายและขนบประเพณี
ความหมายของ Ethical AI
Ethical AI หมายถึงการพัฒนาและการใช้งานปัญญาประดิษฐ์ที่ดำเนินไปอย่างมีความรับผิดชอบ ยุติธรรม โปร่งใส เคารพในคุณค่าและศักดิ์ศรีของความเป็นมนุษย์ รวมไปถึงการคำนึงถึงผลกระทบต่อสังคมในวงกว้าง การป้องกันความเสี่ยงที่อาจเกิดขึ้นจากการใช้งาน AI ตลอดจนการรักษาความเป็นส่วนตัวของเจ้าของข้อมูล Ethical AI จึงให้ความสำคัญต่อผลกระทบที่ AI จะมีต่อบุคคล กลุ่มบุคคล และสังคม สนับสนุนให้เกิดการใช้งาน AI อย่างปลอดภัยและมีความรับผิดชอบเพื่อป้องกันปัญหาและอันตรายที่อาจเกิดขึ้น
การพัฒนา Ethical AI อย่างมีประสิทธิภาพต้องมีการคำนึงความเสี่ยงสี่ประการ ประกอบด้วย การเอนเอียงของข้อมูล (Bias) อันเป็นความเสี่ยงที่ AI อาจกีดกันหรือแบ่งแยกบุคคลหรือกลุ่มบุคคลอย่างไม่ยุติธรรมเพียงเพราะข้อมูลที่ป้อนให้ AI เรียนรู้ไม่มีความหลากหลายเพียงพอ ความเสี่ยงประการที่สองคือความสามารถในการอธิบาย (Explainability) ซึ่งเป็นความเสี่ยงที่ผู้ใช้งานและผู้พัฒนาระบบไม่อาจทำความเข้าใจกลไกเบื้องหลังการทำงานของ AI จึงอาจทำให้เกิดความสับสนและก่อให้เกิดความไม่ไว้วางใจได้ ความเสี่ยงประการที่สามคือ ความทนทาน (Robustness) โดยเป็นความเสี่ยงที่อัลกอริธึมอาจทำงานล้มเหลวภายใต้สถานการณ์คับขันหรือเมื่อถูกโจมตี และความเสี่ยงประการสุดท้ายคือ ความเป็นส่วนตัว (Privacy) ซึ่งเป็นความเสี่ยงที่ระบบล้มเหลวในการป้องกันการรั่วไหลของข้อมูลส่วนบุคคล
จากความเสี่ยงทั้งสี่ประการดังกล่าว จึงได้มีการนำเสนอแนวทางบริหารความเสี่ยงและแนวทางที่จะทำให้ AI ทำงานภายใต้กรอบกฎหมายและจริยธรรมมากขึ้น แนวทางแรกคือ หลักการ (Principles) ซึ่งหมายถึง แนวทางและคุณค่าที่ผู้พัฒนา AI สามารถนำมาใช้ประกอบการออกแบบ การพัฒนา และการนำไปใช้งาน เพื่อให้ AI ทำงานอย่างถูกต้องและไม่เบี่ยงเบนไปจากจริยธรรมที่กำหนด แนวทางที่สองคือ กระบวนการ (Processes) โดยเป็นการนำหลักการอันเป็นที่ยอมรับของทุกฝ่ายไปใช้ในการออกแบบระบบ AI เพื่อบริหารความเสี่ยงทั้งในเชิงเทคนิค (เช่น ความโปร่งใสและความรับผิดชอบในการออกแบบและพัฒนา AI) และที่ไม่ใช่เชิงเทคนิค (เช่น วิธีการตัดสินใจ และการฝึกฝน AI) และแนวทางที่สามคือ การตระหนักรู้ในจริยธรรม (Ethical Consciousness) ทั้งในขั้นตอนของการออกแบบ การพัฒนา และการนำ AI ไปใช้ประโยชน์
ทำไม Ethical AI ถึงสำคัญ
AI คือเทคโนโลยีที่ได้รับการพัฒนาโดยมนุษย์เพื่อคัดลอก เสริมสร้าง หรือทดแทนมันสมองของมนุษย์ การพัฒนาเทคโนโลยีดังกล่าวจึงต้องใช้ข้อมูลปริมาณมากมายมหาศาลในการฝึกฝนให้สามารถทำงานได้คล้ายกันกับมันสมองของคนเรา ดังนั้น AI ที่ใช้ข้อมูลที่ไม่ถูกต้อง ไม่เพียงพอ หรือมีความเอนเอียงจึงมีความเสี่ยงที่จะก่อให้เกิดผลกระทบที่อันตราย ส่วนการพัฒนา AI ที่รุดหน้าไปอย่างรวดเร็วก็อาจทำให้เรามีความเข้าใจอย่างจำกัดจำเขี่ยถึงวิธีการทำงานของมัน ซึ่งไม่ใช่เรื่องดีเมื่อเรามีแนวโน้มที่จะใช้ AI เป็นเครื่องมือประกอบการตัดสินใจมากขึ้น
ความยุติธรรมและความเท่าเทียม คือประเด็นสำคัญที่สุดที่ต้องคำนึงถึงของการพัฒนา Ethical AI ด้วยเหตุผลหลายประการ อาทิ ป้องกันความลำเอียงและการเลือกปฏิบัติ เนื่องจาก AI ที่พัฒนาโดยไม่คำนึงถึงประเด็นดังกล่าวอาจนำไปสู่ความลำเอียงในการตัดสินใจ ซึ่งย่อมส่งผลเสียต่อกลุ่มคนที่มีความหลากหลายทางเชื้อชาติ เพศ หรือชนชั้นทางสังคม หาก AI ได้รับการพัฒนาโดยคำนึงถึงความยุติธรรมและความเท่าเทียมตั้งแต่ต้นก็จะสามารถสร้างความเชื่อมั่นและการยอมรับ เพราะว่าหากสาธารณชนมีความเชื่อมั่นว่า AI ทำงานอย่างยุติธรรมและไม่เลือกปฏิบัติ ก็มีแนวโน้มที่สังคมจะเกิดการยอมรับและเชื่อมั่นในเทคโนโลยีนี้มากขึ้น นอกจากนี้ การพัฒนา AI ด้วยแนวทางดังกล่าวยังสามารถสร้างนวัตกรรมและการเข้าถึงที่กว้างขวาง อันเกิดจากความมั่นใจว่าเทคโนโลยีนี้จะสามารถตอบสนองความต้องการของกลุ่มคนที่หลากหลาย รวมไปถึงการขยายการเข้าถึงไปยังกลุ่มคนที่ถูกสังคมละเลยหรือมีความต้องการพิเศษ
นอกจากนี้ ความโปร่งใสและความรับผิดชอบ ก็เป็นอีกประเด็นสำคัญของการพัฒนา Ethical AI เนื่องจากการคำนึงถึงประเด็นดังกล่าวช่วยลดความเสี่ยงในการใช้ AI ในวัตถุประสงค์ที่ไม่ดี ซึ่งอาจก่อให้เกิดความเสียหายต่อสังคมและช่วยป้องกันการนำ AI ไปใช้ในการละเมิดสิทธิและความเป็นส่วนตัวของบุคคล ที่สำคัญคือการแสดงความโปร่งใสและความรับผิดชอบจะช่วยให้สาธารณชนและผู้บริโภคมีความเข้าใจในการทำงานของ AI และผลกระทบต่อเศรษฐกิจและสังคม ซึ่งส่งผลให้ผู้คนสามารถทำความเข้าใจและตัดสินใจได้อย่างเหมาะสมเมื่อต้องใช้งาน AI ในชีวิตประจำวัน
แนวทางการพัฒนา AI ที่มีจริยธรรม
จะเห็นได้ว่าการพัฒนา Ethical AI หรือ AI ที่มีจริยธรรมมีความสำคัญหลายประการ เช่นนั้นแล้ว การพัฒนา Ethical AI จึงเป็นกระบวนการที่มุ่งเน้นความสำคัญในการสร้างและใช้ปัญญาประดิษฐ์โดยที่ไม่ก่อให้เกิดผลกระทบที่ไม่เอาใจใส่หรือไม่เป็นธรรมต่อสังคม โดยสามารถกำหนดขั้นตอนการดำเนินการอย่างกว้างได้เป็นสามขั้นตอนใหญ่ ดังนี้
การกำหนดหลักการจริยธรรม (Ethical Principles) การพัฒนา Ethical AI ควรเริ่มต้นด้วยการกำหนดหลักการที่เกี่ยวข้องกับโครงการหรือเป้าหมายของการใช้ AI โดยใช้หลักธรรมเชิงสังคมและประชาธิปไตย เช่น ความเท่าเทียม ความยุติธรรม ความเป็นธรรม ความเป็นส่วนตัว และความซื่อสัตย์ เป็นต้น นอกจากนี้ ผู้เกี่ยวกับในการพัฒนา Ethical AI ต้องมีความเข้าใจเกี่ยวกับปัญหาทางจริยธรรม กฎหมาย และขนบธรรมเนียมที่เกี่ยวข้องเพื่อให้หลักการจริยธรรมที่คิดค้นขึ้นมาไม่ขัดหรือแย้งกับความคิดของสังคม
การประชาสัมพันธ์ (Public Engagement) คือการเปิดโอกาสให้สนใจและผู้เกี่ยวข้องเกี่ยวกับการใช้งาน AI เข้ามามีส่วนร่วมในกระบวนการพัฒนาและการตัดสินใจเกี่ยวกับ AI ซึ่งสามารถดำเนินการได้หลายวิธี ไม่ว่าจะเป็นการจัดประชุมสัมมนาเพื่อรับฟังความคิดเห็น การจัดเวทีเสวนาแลกเปลี่ยนความรู้ และการสร้างพื้นที่แสดงความคิดเห็นเกี่ยวกับการพัฒนา AI ดังกล่าว หากการพัฒนา AI ได้มีการดำเนินการในลักษณะนี้ก็จะช่วยยกระดับความโปร่งใสในการพัฒนา และสร้างความเชื่อมั่นให้กับสาธารณชน
การทดสอบและประเมิน (Testing and Evaluation) การดำเนินการขั้นตอนนี้จะต้องคำนึงถึงความยุติธรรมและประสิทธิภาพของระบบโดยใช้ชุดข้อมูลที่หลากหลาย ไม่ว่าจะเป็นกรอบแนวคิดเชิงจริยธรรม แนวปฏิบัติ และการทดสอบกฎหมายที่เกี่ยวข้อง ซึ่งมีเป้าหมายที่จะหาข้อบกพร่องและช่องว่างในประเด็นต่าง ๆ ดังกล่าว แล้วจึงนำข้อมูลที่ได้มาปรับปรุง AI อย่างต่อเนื่องเพื่อป้องกันการเกิดปัญหาทางจริยธรรมในระยะยาว
สรุป
AI คือเทคโนโลยีใหม่ที่มีแนวโน้มเข้ามามีบทบาทกับการใช้ชีวิตของเรามากขึ้นไม่แพ้สมาร์ทโฟนและโซเชียลมีเดีย ประโยชน์ของ AI มีมากมาย ประกอบกับการได้รับการพัฒนาอย่างรวดเร็วก็ยิ่งช่วยทวีความสามารถให้สูงมากขึ้นไปอีก กระนั้นก็ดี ประเด็นด้านจริยธรรมของ AI ยังคงเป็นที่ถกเถียงเพราะประกอบด้วยปัจจัยเกี่ยวข้องหลายประการ ไม่ว่าจะเป็นกฎหมายและขนบธรรมเนียมที่แตกต่างไปในแต่ละพื้นที่ สภาพสังคมและเศรษฐกิจของแต่ละประเทศที่ไม่เหมือนกัน ตลอดจนความรู้ความเข้าใจของสาธารณชนที่มีต่อ AI ก็ยังไม่เท่ากันอีกด้วย ประเด็นเหล่านี้ทำให้การพัฒนา AI ให้เป็นที่ยอมรับของทุกฝ่ายมีความท้าทายเป็นอย่างยิ่ง
สำหรับบทความถัดไปผมจะกล่าวถึงเทรนด์ AI ในปี 2024 นะครับว่ามีประเด็นใดน่าติดตามบ้าง