OpenAI ยอมรับการใช้ AI ในทางทหารอย่างจำกัด
OpenAI ได้แก้ไขนโยบายการใช้งานของตน โดยลบข้อความเฉพาะที่เกี่ยวข้องกับการใช้เทคโนโลยี AI หรือแบบจำลองภาษาขนาดใหญ่สำหรับ “ทหารและสงคราม” ก่อนหน้านี้ นโยบายการใช้งานระบุไว้อย่างชัดเจนว่าห้ามใช้แบบจำลอง OpenAI สำหรับการพัฒนาอาวุธ ทหารและสงคราม และเนื้อหาที่ส่งเสริม สนับสนุน หรือแสดงภาพการกระทำทำร้ายตนเอง
OpenAI กล่าวว่านโยบายที่อัปเดตได้สรุปรายการและทำให้เอกสารอ่านง่ายขึ้น พร้อมให้ “แนวทางเฉพาะบริการ” รายการดังกล่าวได้ถูกย่อให้เหลือสิ่งที่บริษัทเรียกว่านโยบายสากล ซึ่งห้ามไม่ให้ใครก็ตามใช้บริการของตนเพื่อก่อให้เกิดอันตรายต่อผู้อื่น และห้ามนำเอาเอาผลผลิตใด ๆ ของแบบจำลองไปใช้เพื่อก่อให้เกิดอันตรายต่อผู้อื่น
โฆษกของ OpenAI กล่าวว่า “นโยบายของเราไม่อนุญาตให้ใช้เครื่องมือของเราเพื่อทำร้ายผู้คน พัฒนาอาวุธ เพื่อการสอดส่องการสื่อสาร หรือทำร้ายผู้อื่นหรือทำลายทรัพย์สิน อย่างไรก็ตาม มีกรณีการใช้งานด้านความมั่นคงแห่งชาติที่สอดคล้องกับพันธกิจของเรา ตัวอย่างเช่น เรากำลังทำงานร่วมกับ DARPA เพื่อกระตุ้นให้เกิดการสร้างเครื่องมือความปลอดภัยไซเบอร์ใหม่ ๆ เพื่อรักษาซอฟต์แวร์โอเพนซอร์สที่โครงสร้างพื้นฐานที่สำคัญและอุตสาหกรรมต้องพึ่งพา ยังไม่ชัดเจนว่ากรณีการใช้งานที่เป็นประโยชน์เหล่านี้จะได้รับอนุญาตภายใต้ ‘ทหาร’ ในนโยบายก่อนหน้าของเรา ดังนั้นเป้าหมายของการอัปเดตนโยบายคือเพื่อให้ความชัดเจนและความสามารถในการพูดคุยเกี่ยวกับเรื่องนี้”
การแก้ไขนโยบายดังกล่าวถูกมองว่าเป็นการอ่อนตัวลงอย่างค่อยเป็นค่อยไปของ OpenAI ในการต่อต้านการทำงานร่วมกับองค์กรที่เกี่ยวข้องกับการป้องกันหรือทหาร ผู้เชี่ยวชาญหลายคน รวมถึง Sam Altman ซีอีโอของ OpenAI ได้เน้นย้ำถึง “ความเสี่ยงในขอบเขต” ที่เกิดจาก AI อยู่แล้ว
ผู้เชี่ยวชาญบางคนกังวลว่าการเปลี่ยนแปลงนโยบายของ OpenAI อาจนำไปสู่การนำไปใช้ AI ในทางที่ผิดในสงคราม ตัวอย่างเช่น AI อาจถูกนำมาใช้เพื่อพัฒนาอาวุธอัตโนมัติที่แม่นยำและทรงพลังมากขึ้น หรือเพื่อระบุและโจมตีเป้าหมายของศัตรูอย่างมีประสิทธิภาพมากขึ้น
OpenAI ระบุว่ากำลังทำงานร่วมกับรัฐบาลและองค์กรอื่น ๆ เพื่อพัฒนาแนวทางปฏิบัติที่ดีที่สุดสำหรับการใช้ AI ในทางที่รับผิดชอบ
การเปลี่ยนแปลงนโยบายของ OpenAI ในครั้งนี้มีประเด็นที่น่าสนใจหลายประการ ประการแรก แสดงให้เห็นว่า OpenAI กำลังพิจารณาถึงความเสี่ยงและผลประโยชน์ของการใช้ AI ในบริบททางทหารมากขึ้น ประการที่สอง การเปลี่ยนแปลงดังกล่าวอาจนำไปสู่การนำไปใช้ AI ในสงครามอย่างแพร่หลายมากขึ้น ซึ่งอาจส่งผลกระทบต่อความปลอดภัยและความมั่นคงของภูมิภาคและของโลก ประการที่สาม การเปลี่ยนแปลงดังกล่าวอาจก่อให้เกิดการถกเถียงและข้อกังวลเกี่ยวกับการใช้ AI ในบริบททางทหารมากขึ้น
ประเด็นที่น่าสนใจประการหนึ่งคือ OpenAI ไม่ได้ห้ามการใช้ AI ในบริบททางทหารโดยสิ้นเชิง แต่ยังคงห้ามไม่ให้ใช้ AI เพื่อก่อให้เกิดอันตรายต่อผู้อื่น ตัวอย่างเช่น AI อาจถูกนำมาใช้เพื่อพัฒนาเครื่องมือความปลอดภัยไซเบอร์เพื่อปกป้องโครงสร้างพื้นฐานที่สำคัญ แต่อาจถูกนำไปใช้เพื่อสร้างอาวุธอัตโนมัติเพื่อฆ่าผู้คนได้เช่นกัน
ประเด็นที่น่าสนใจประการที่สองคือการเปลี่ยนแปลงนโยบายของ OpenAI อาจนำไปสู่การนำไปใช้ AI ในสงครามอย่างแพร่หลายมากขึ้น ตัวอย่างเช่น AI อาจถูกนำมาใช้เพื่อพัฒนาอาวุธอัตโนมัติที่แม่นยำและทรงพลังมากขึ้น ซึ่งอาจทำให้สงครามมีความรุนแรงและอันตรายมากขึ้น นอกจากนี้ AI อาจถูกนำมาใช้เพื่อระบุและโจมตีเป้าหมายของศัตรูอย่างมีประสิทธิภาพมากขึ้น ซึ่งอาจทำให้สงครามมีผู้เสียชีวิตและบาดเจ็บล้มตายมากขึ้น
ประเด็นที่น่าสนใจประการที่สามคือการเปลี่ยนแปลงดังกล่าวอาจก่อให้เกิดการถกเถียงและข้อกังวลเกี่ยวกับการใช้ AI ในบริบททางทหารมากขึ้น ตัวอย่างเช่น ผู้เชี่ยวชาญบางคนกังวลว่า AI อาจถูกนำไปใช้ในทางที่ผิดเพื่อละเมิดสิทธิมนุษยชนหรือก่ออาชญากรรมสงคราม นอกจากนี้ ผู้เชี่ยวชาญบางคนกังวลว่า AI อาจนำไปสู่ยุคสงครามอัตโนมัติที่มนุษย์ไม่มีบทบาทในการต่อสู้
OpenAI ระบุว่ากำลังทำงานร่วมกับรัฐบาลและองค์กรอื่น ๆ เพื่อพัฒนาแนวทางปฏิบัติที่ดีที่สุดสำหรับการใช้ AI ในทางที่รับผิดชอบ อย่างไรก็ตาม การเปลี่ยนแปลงนโยบายของ OpenAI ในครั้งนี้แสดงให้เห็นว่ายังมีประเด็นท้าทายและข้อกังวลมากมายเกี่ยวกับการใช้ AI ในบริบททางทหาร
