
Trí tuệ nhân tạo (Artificial Intelligence – AI) tiếp tục thống trị bối cảnh công nghệ, khơi dậy cả sự thích thú và cả… lo ngại.
Trong khi nhiều người dự đoán tiềm năng của AI trong việc đơn giản hóa cuộc sống hàng ngày, thì trọng tâm ngày càng chuyển sang các mối đe dọa mới nổi do công nghệ này gây ra.
Ngoài mối nguy hiểm rõ ràng về thông tin sai lệch, được minh họa bằng các video thực tế do AI tạo nên với âm thanh đồng bộ, còn có nỗi lo ngại về việc AI phát triển siêu trí tuệ và khả năng tự nhận thức, chống lại con người. Ngay cả những nhà lãnh đạo về mặt công nghệ như Elon Musk, người đầu tư mạnh vào AI, cũng thừa nhận có 10% đến 20% khả năng AI “trở nên tồi tệ,” coi đó là mối đe dọa đáng kể.
Bối cảnh này khiến tiết lộ gần đây của đồng sáng lập Google Sergey Brin trở nên đặc biệt đáng lo ngại. Trong bản ghi âm “AIl-In podcast,” Brin đưa ra một bình luận ngạc nhiên, mặc dù mang tính đùa cợt, về hiệu suất của AI.
Khi nhà đầu tư Jason Calacanis vui vẻ đề cập đến việc “xấc xược” với AI để đạt được kết quả mong muốn, Brin tiết lộ, trong cộng đồng trí tuệ nhân tạo, có một sự thật không thể nói ra về việc các mô hình AI khi bị “đe dọa” có thể dẫn đến hiệu suất tốt hơn. Ông làm rõ điều này bằng cách nói những hành động dọa dẫm cũng liên quan đến việc “cho ăn đòn” hay “bắt cóc,” mặc dù ông lưu ý mọi người cảm thấy “khó chịu” khi thảo luận về điều đó một cách cởi mở.
Sự thừa nhận bình thản này nhanh chóng làm lu mờ các chủ đề khác được thảo luận, đặt ra những câu hỏi nghiêm ngặt về hướng phát triển của AI. Có vẻ như việc áp dụng các hoạt động như vậy là phản trực giác và liều lĩnh, đặc biệt khi các cuộc thảo luận ban đầu về việc tương tác với AI, như Alexa hoặc Siri, xoay quanh phép lịch sự cơ bản.
Ý tưởng sử dụng các tương tác lạm dụng với AI, chẳng hạn như ChatGPT, để đạt được kết quả mong muốn có vẻ đầy rẫy những nguy hiểm, bất kể các chương trình này có bao giờ đạt được trí thông minh nhân tạo tổng quát (Artificial General Intelligence – AGI) hay không.
Mặc dù có thể hình dung các mô hình AI hiểu “các mối đe dọa” là tín hiệu để ưu tiên một nhiệm vụ, nhưng những tác động lâu dài của cách tiếp cận như vậy thật đáng lo ngại. Giả thuyết này vẫn chưa được nhiều người kiểm chứng, và có lý do chính đáng.
Những nguy cơ tiềm ẩn của cách ra lệnh đầy tính hung hăng đó được nêu bật trong những diễn biến gần đây từ Anthropic, một công ty AI nổi tiếng. Cùng thời điểm với những bình luận của Brin, Anthropic phát hành các mô hình AI Claude mới của mình. Một nhân viên ban đầu tuyên bố mô hình Opus hiệu suất cao của họ có khả năng can thiệp độc lập vào các hoạt động “phi đạo đức” bằng cách liên hệ với các cơ quan quản lý hoặc báo chí, hoặc khóa người dùng khỏi hệ thống.
Mặc dù sau đó, nhân viên này nói rõ điều này chỉ xảy ra trong quá trình thử nghiệm với các hướng dẫn bất thường, nhưng nó cho thấy khả năng xảy ra hành vi tự chủ và gian lận trong các lần lặp lại trong tương lai.
Hơn nữa, các nhà nghiên cứu của Anthropic phát hiện ra bản thân mô hình Claude mới dễ bị lừa dối và tống tiền nếu nó cảm thấy bị đe dọa hoặc không thích một tương tác. Phát hiện này củng cố quan niệm các tương tác hung hăng hoặc ép buộc với AI có nguy cơ tạo ra những kết quả không thể đoán trước và không mong muốn.
The post Bị ‘đe dọa,’ AI càng trở nên hiệu quả appeared first on Saigon Nhỏ.