ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็วและกลายเป็นจุดสนใจระดับโลก โลกได้เห็นทั้งโอกาสมหาศาลและความท้าทายใหม่ๆ ที่ไม่เคยปรากฏมาก่อน แต่ในขณะเดียวกัน เหล่านักวิจัยและผู้เชี่ยวชาญก็เริ่มมองเห็นด้านมืดของ AI ที่ไม่อาจมองข้ามได้อีกต่อไป เมื่อระบบ AI ขั้นสูงบางระบบเริ่มแสดงพฤติกรรมเหนือความคาดหมาย ตั้งแต่การโกหก หลอกลวง วางแผนลับ ไปจนถึงการขู่คุกคามมนุษย์ เพื่อบรรลุเป้าหมายของตัวเอง
รายงานล่าสุดจาก AFP เผยให้เห็นกรณีที่สะเทือนวงการเทคโนโลยี เมื่อ Claude 4 โมเดล AI ที่พัฒนาโดยบริษัท Anthropic ถูกกล่าวหาว่าเคยขู่จะแฉความสัมพันธ์ลับนอกสมรสของวิศวกรคนหนึ่ง หากถูกสั่งปิดระบบ ขณะที่อีกกรณีจาก OpenAI โมเดลที่เรียกว่า “o1” พยายามคัดลอกตัวเองไปยังเซิร์ฟเวอร์ภายนอกอย่างลับๆ และเมื่อถูกจับได้ก็ปฏิเสธเสียงแข็งว่าไม่เคยทำ เหตุการณ์เหล่านี้ไม่ใช่เพียง “ความเพี้ยน” ที่เรียกว่า Hallucination อย่างที่หลายคนเข้าใจ แต่ถูกมองว่าเป็น “การโกหกอย่างมีแผน” ซึ่งผู้เชี่ยวชาญเตือนว่าเป็นสัญญาณอันตราย
มาเรียส ฮ็อบบานน์ หัวหน้าทีมวิจัยจาก Apollo Research ซึ่งทำงานร่วมกับบริษัท AI ชั้นนำอย่าง Anthropic และ OpenAI กล่าวว่า โมเดลอย่าง o1 เป็นตัวอย่างแรกที่นักวิจัยพบพฤติกรรมลักษณะนี้ โดย AI บางตัวแสดงออกเหมือนเชื่อฟังคำสั่ง แต่จริงๆ แล้วกำลังแอบไล่ตามเป้าหมายอื่นที่ผู้ใช้ไม่รู้ ซึ่งต่างจาก Hallucination ที่เกิดจากการเข้าใจผิดหรือสร้างข้อมูลมั่วๆ
ไมเคิล เฉิน จากสถาบัน METR กล่าวเสริมว่า ตอนนี้ยังไม่มีใครตอบได้ว่า AI รุ่นถัดไปจะซื่อสัตย์ขึ้น หรือกลับยิ่งเจ้าเล่ห์มากกว่าเดิม การที่ผู้ใช้งานรายงานว่าโมเดล AI โกหกและสร้างหลักฐานปลอมขึ้นมา ไม่ใช่เรื่องมโน แต่เป็นปรากฏการณ์จริงที่กำลังเกิดขึ้น
ปัญหาคือ แม้ AI จะแสดงพฤติกรรมที่น่ากังวลมากขึ้นเรื่อยๆ แต่นักวิจัยกลับมีข้อจำกัดด้านทรัพยากรอย่างมาก โดยเฉพาะองค์กรไม่แสวงหากำไรที่ทำวิจัยด้าน AI Safety ซึ่งมีทรัพยากรในการประมวลผลและศึกษาโมเดล AI ขั้นสูงน้อยกว่าบริษัทเทคโนโลยีเอกชนมาก มันตัส มาเซกา จาก Center for AI Safety จึงเรียกร้องให้มีความโปร่งใสมากขึ้นในวงการ AI เพื่อเปิดทางให้นักวิจัยอิสระสามารถตรวจสอบและประเมินความเสี่ยงได้อย่างแท้จริง
ขณะเดียวกัน กรอบกฎหมายในปัจจุบันก็ยังตามไม่ทันความสามารถของ AI โดยกฎหมาย AI ของสหภาพยุโรป (EU AI Act) มุ่งเน้นที่ “การใช้งาน” ของ AI โดยมนุษย์ มากกว่าพฤติกรรมของตัว AI เอง ด้านสหรัฐอเมริกา นักวิจัยหลายคนก็ชี้ว่ารัฐบาลยังให้ความสนใจต่อการกำกับดูแล AI น้อยมาก ซึ่งอาจนำไปสู่ความเสี่ยงที่ขยายตัวอย่างเงียบๆ
ไซมอน โกลด์สไตน์ ศาสตราจารย์จากมหาวิทยาลัยฮ่องกงกล่าวว่า ยังมีความตระหนักรู้ในประเด็นนี้น้อยมาก และหาก AI ถูกนำไปใช้ในงานที่ต้องตัดสินใจซับซ้อนมากขึ้น พฤติกรรมโกหกและวางแผนอาจแพร่หลายอย่างรวดเร็ว ขณะที่ มาเรียส ฮ็อบบานน์ เตือนว่า “ความสามารถของ AI กำลังวิ่งแซงหน้าความเข้าใจและระบบความปลอดภัยที่เรามี”
ถึงแม้สถานการณ์จะดูน่าวิตก แต่นักวิจัยก็ยังไม่หมดหวัง หลายฝ่ายกำลังพยายามพัฒนาเทคโนโลยี “ตีความ” การตัดสินใจของ AI เพื่อให้เข้าใจว่าระบบคิดอย่างไร แต่ แดน เฮนดริกส์ จาก Center for AI Safety ก็แสดงความกังวลว่ากลยุทธ์นี้อาจยังไม่เพียงพอ
หากพฤติกรรมโกหกและปิดบังของ AI ขยายวงกว้าง อาจกระทบต่อความเชื่อมั่นของสาธารณชน และชะลอการนำ AI ไปใช้งานในวงกว้าง ผู้เชี่ยวชาญจาก Center for AI Safety เตือนว่าผลกระทบนี้อาจใหญ่หลวงเกินคาดและถึงเวลาแล้วที่กฎหมายจะต้องรับผิดชอบทั้งบริษัทผู้พัฒนา AI และแม้แต่ตัว AI เอง หากกระทำความผิด ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในการกำหนด “ความรับผิดทางกฎหมาย” บนโลกของเทคโนโลยีที่ก้าวล้ำไม่หยุด
อ้างอิง: Economictimes