SHARE

คัดลอกแล้ว

ในบทความล่าสุดของ ‘ยูวัล โนอาห์ แฮรารี’ นักประวัติศาสตร์และเจ้าของหนังสือดัง เซเปียนส์, ประวัติย่อมนุษยชาติ, 21 บทเรียนแห่งศตวรรษที่ 21 และโฮโมดีอุส ประวัติย่อของวันพรุ่งนี้ ที่เพิ่งเผยแพร่ใน The Economist ย้ำถึงความเสี่ยงของสงครามยุคใหม่ที่มีปัญญาประดิษฐ์ หรือ AI เข้ามามีบทบาท ในแง่การพัฒนาอาวุธที่มีเทคโนโลยี AI โดยเฉพาะสงครามโดรนที่มีพัฒนาการอย่างรวดเร็ว

และในไม่ช้าถ้าไม่รีบสร้างสันติภาพ โลกจะได้เห็น ‘ฝูงโดรนไร้คนขับ’ ต่อสู้กันเองบนท้องฟ้า และคร่าชีวิตผู้คนหลายพันคนในภาคพื้นดิน รวมไปถึงความเสี่ยงที่มีการใช้หุ่นยนต์นักฆ่าด้วยเช่นกัน

จะเห็นว่ามุมมองนักประวัติศาสตร์ที่วิเคราะห์ความเป็นไปได้ของอนาคตได้แม่นยำคนหนึ่งของโลกก็วิตกกับ AI มากเช่นกัน

ล่าสุดความกังวลนี้ก็ชัดเจนยิ่งขึ้นจนเป็นข่าวไปทั่วโลกเมื่อกลุ่มพนักงานปัจจุบัน และอดีตพนักงานของ Google DeepMind บริษัทที่พัฒนาเรื่อง AI ในเครือของ Alphabet และบริษัท OpenAI เจ้าของ ChatGPT อันโด่งดังที่ได้รับการสนับสนุนจาก Microsoft ได้ร่วมกันออกจดหมายเปิดผนึกต่อสาธารณะเมื่อวันที่ 4 มิถุนายน ลงชื่อเปิดเผยตัวตนชัดเจน 13 คน แสดงความกังวลถึงความเสี่ยงจาก AI ที่กำลังเติบโตอย่างรวดเร็ว

โดยในจดหมายระบุว่า แรงจูงใจด้านผลกำไรของบริษัท AI กลายเป็นอุปสรรคสำคัญต่อการกำกับดูแล AI อย่างมีประสิทธิภาพ โดยเราไม่เชื่อว่าโครงสร้างการกำกับดูแลกิจการของบริษัทจะเพียงพอต่อการเปลี่ยนแปลงสถานการณ์นี้ได้

และมีความเสี่ยงที่อาจเกิดขึ้นจาก AI ที่ขาดการควบคุม ทั้งการเผยแพร่ข้อมูลเท็จ การสูญเสียระบบ AI ที่เป็นอิสระ ไปจนถึงการซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม ซึ่งอาจนำไปสู่ “การสูญพันธุ์ของมวลมนุษยชาติ” ในท้ายที่สุด

“ฉันกลัว” Daniel Kokotajlo หนึ่งในอดีตพนักงาน OpenAI ที่ร่วมลงชื่อในจดหมายเปิดผนึก หลังจากลาออกจากบริษัทตั้งแต่เดือนเมษายน เพราะสูญเสียความเชื่อมั่นว่าผู้นำของบริษัทจะจัดการกับเทคโนโลยีที่พัฒนาขึ้นมาอย่างมีความรับผิดชอบ

ขณะที่มีพนักงานที่คำนึงถึงความปลอดภัยอีกหลายคนได้ลาออกด้วยเหตุผลที่คล้ายกันเมื่อเร็วๆ นี้ ทำให้เกิดความกังวลมากขึ้นว่า OpenAI จะไม่ยอมรับความเสี่ยงของเทคโนโลยีอย่างจริงจังเพียงพอ

ในจดหมายเปิดผนึก ระบุด้วยว่า มีการพบว่าเครื่องมือสร้างรูปภาพของบริษัท AI หลายแห่ง รวมถึง OpenAI และ Microsoft สามารถสร้างภาพถ่ายที่มีเนื้อหาบิดเบือนเกี่ยวกับการเลือกตั้งได้ แม้บริษัทเหล่านี้จะมีนโยบายสั่งห้ามเนื้อหาประเภทดังกล่าวก็ตาม

“บริษัท AI มีภาระผูกพันเพียงเล็กน้อยในการแบ่งปันข้อมูลบางส่วนกับรัฐบาล และไม่แบ่งปันกับภาคประชาสังคม และไม่อาจไว้วางใจได้ว่าบริษัทเหล่านี้จะแบ่งปันข้อมูลดังกล่าวโดยสมัครใจ”เนื้อหาจดหมายกล่าวไว้

กลุ่มพนักงานในจดหมายเปิดผนึกได้เรียกร้องให้บริษัท AI ต่างๆ อนุญาตให้พนักงานมี สิทธิ์ในการเตือนเกี่ยวกับ AI และไม่บังคับใช้ข้อตกลงการรักษาความลับที่ปิดกั้นการวิพากษ์วิจารณ์

อย่างไรก็ตาม ก่อนหน้านี้มีรายงานข่าวว่า OpenAI ใช้วิธีการป้องกันไม่ให้พนักงานพูดอย่างอิสระเกี่ยวกับงาน AI ของพวกเขา โดย Vox รายงานเมื่อสัปดาห์ที่แล้วว่า OpenAI ให้พนักงานที่ลาออกจากบริษัทต้องลงชื่อในเอกสารที่ตกลงว่าจะไม่มีการพูดในทางลบ และไม่เปิดเผยข้อมูลที่มีข้อจำกัดอย่างยิ่ง ซึ่ง Sam Altman ซีอีโอของ OpenAI ได้ออกมาขอโทษหลังจากมีรายงานข่าวชิ้นนี้ออกมา และบอกว่าจะปรับเปลี่ยนวิธีการรับมือในเรื่องนี้ใหม่

จดหมายเปิดผนึกที่ออกคำเตือนเรื่อง AI เกิดขึ้นหลังจากพนักงานระดับแถวหน้าของ OpenAI 2 คน คือ Ilya Sutskever ผู้ร่วมก่อตั้ง และ Jan Leike นักวิจัยด้านความปลอดภัยคนสำคัญของบริษัท ลาออกจากบริษัทเมื่อเดือนที่แล้ว โดยหลังจากลาออกไปแล้ว Leike กล่าวว่า OpenAI ได้ละทิ้งวัฒนธรรมเรื่องความปลอดภัยในเรื่องเทคโนโลยี

เป็นเสียงสะท้อนล่าสุดที่แสดงความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยี Generative AI ซึ่งสามารถสร้างข้อความ ภาพ และเสียงที่มีลักษณะคล้ายมนุษย์ได้อย่างรวดเร็ว

วันนี้ประเด็นความกลัว AI หลักๆ มี 2 เรื่องคือ “จริยธรรมของ AI” ที่อาจไปสร้างอคติต่างๆ ทั้งทางเชื้อชาติ การให้ข้อมูลที่ไม่ถูกต้องบิดเบือน กับอีกเรื่องคือ “ความปลอดภัยของ AI” ที่มองว่าเป็นความเสี่ยงที่จะเกิดขึ้นได้ในอนาคต

ส่วน OpenAI ออกมาอธิบายหลังจากเรื่องนี้ว่า แพลตฟอร์มได้เปิดให้มีช่องทางในการให้คำแนะนำและรายงานปัญหาเข้ามาที่บริษัท รวมทั้งยืนยันว่าจะไม่ปล่อยเทคโนโลยีใหม่จนกว่าจะมีมาตรการการป้องกันที่เหมาะสม

“เราภูมิใจในประวัติการทำงานของเราที่ผ่านมาในการส่งมอบระบบ AI ที่มีความสามารถและปลอดภัยที่สุด และเชื่อมั่นในแนวทางทางวิทยาศาสตร์ของเราในการจัดการกับความเสี่ยง เราตกลงกันว่าการถกเถียงเรื่อง AI อย่างเข้มงวดเป็นสิ่งสำคัญเมื่อคำนึงถึงความสำคัญของเทคโนโลยีนี้ และเราจะยังคงมีส่วนร่วมกับรัฐบาล ภาคประชาสังคม และชุมชนอื่นๆ ทั่วโลกต่อไป”โฆษกของ OpenAI กล่าว

ความกังวลถึงอันตรายที่อาจเกิดขึ้นจาก AI นั้นมีมานานหลายสิบปีแล้ว แต่การเติบโตอย่างรวดเร็วของ AI ในช่วงไม่กี่ปีมานี้ ยิ่งเพิ่มความกลัวให้รุนแรงขึ้นไปอีก แม้บริษัท AI ต่างๆ ประกาศต่อสาธารณะถึงความมุ่งมั่นในการพัฒนาเทคโนโลยีอย่างปลอดภัย แต่ถึงตอนนี้ก็ไม่ได้ทำให้ใครรู้สึกเชื่อและสบายใจได้ทั้งหมด

อ้างอิง

https://www.theguardian.com/technology/article/2024/jun/04/openai-google-ai-risks-letter

https://www.reuters.com/technology/openai-google-deepminds-current-former-employees-warn-about-ai-risks-2024-06-04/

https://www.economist.com/by-invitation/2024/06/03/yuval-noah-harari-on-how-to-prevent-a-new-age-of-imperialism?itm_source=parsely-api

https://www.vox.com/future-perfect/353933/openai-open-letter-safety-whistleblowers-right-to-warn

podcast

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ อ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว และ นโยบายคุกกี้ และสามารถจัดการความเป็นส่วนตัวของคุณได้เองโดยคลิกที่ ตั้งค่า

ตั้งค่าความเป็นส่วนตัว

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

ยอมรับทั้งหมด
จัดการความเป็นส่วนตัว
  • คุกกี้ที่จำเป็น
    เปิดใช้งานตลอด

    ประเภทของคุกกี้มีความจำเป็นสำหรับการทำงานของเว็บไซต์ เพื่อให้คุณสามารถใช้ได้อย่างเป็นปกติ และเข้าชมเว็บไซต์ คุณไม่สามารถปิดการทำงานของคุกกี้นี้ในระบบเว็บไซต์ของเราได้
    รายละเอียดคุกกี้

  • คุกกี้เพื่อการวิเคราะห์

    คุกกี้ประเภทนี้จะทำการเก็บข้อมูลการใช้งานเว็บไซต์ของคุณ เพื่อเป็นประโยชน์ในการวัดผล ปรับปรุง และพัฒนาประสบการณ์ที่ดีในการใช้งานเว็บไซต์ ถ้าหากท่านไม่ยินยอมให้เราใช้คุกกี้นี้ เราจะไม่สามารถวัดผล ปรับปรุงและพัฒนาเว็บไซต์ได้
    รายละเอียดคุกกี้

  • คุกกี้เพื่อปรับเนื้อหาให้เข้ากับกลุ่มเป้าหมาย

    คุกกี้ประเภทนี้จะเก็บข้อมูลต่าง ๆ รวมทั้งข้อมูลส่วนบุคคลเกี่ยวกับตัวคุณเพื่อเราสามารถนำมาวิเคราะห์ และนำเสนอเนื้อหา ให้ตรงกับความเหมาะสมกับความสนใจของคุณ ถ้าหากคุณไม่ยินยอมเราจะไม่สามารถนำเสนอเนื้อหาและโฆษณาได้ไม่ตรงกับความสนใจของคุณ
    รายละเอียดคุกกี้

บันทึกการตั้งค่า