
Giữa hiện tượng các vụ tự tử ngày càng nhiều, công ty đứng sau ChatGPT, Sam Altman, tuyên bố công ty sẽ bắt đầu việc báo động với cảnh sát về những người dùng trẻ tuổi có ý định tự tử.
Vị giám đốc điều hành 40 tuổi của OpenAI tiết lộ thông tin gây sốc này trong một cuộc phỏng vấn gần đây với người dẫn chương trình trò chuyện bảo thủ Tucker Carlson.
“Chúng tôi hoàn toàn nghiêm túc khi nói rằng trong trường hợp thanh thiếu niên nói về việc tự tử, khi chúng tôi không thể liên lạc với cha mẹ, chúng tôi sẽ gọi cho chính quyền,” vị doanh nhân công nghệ này giải thích. “Đây sẽ là một thay đổi vì quyền riêng tư của người dùng thực sự quan trọng.”
Sự thay đổi này được cho là diễn ra sau khi Altman và OpenAI bị gia đình của Adam Raine, một thiếu niên 16 tuổi ở California, kiện vì tự tử vào Tháng Tư sau khi được cho là đã được mô hình học ngôn ngữ lớn này hướng dẫn. Gia đình thiếu niên này cáo buộc rằng người đã khuất được cung cấp “sổ tay hướng dẫn từng bước” về cách tự tử – bao gồm cả việc thắt dây thừng để treo cổ và viết thư tuyệt mệnh – trước khi tự tử.
Sau cái chết đột ngột của cậu bé, công ty AI có trụ sở tại San Francisco đã thông báo trong một bài đăng trên blog rằng họ sẽ cài đặt các tính năng bảo mật mới cho phép cha mẹ liên kết tài khoản của con cái với tài khoản của chính họ, vô hiệu hóa các chức năng như lịch sử trò chuyện và nhận cảnh báo nếu mô hình phát hiện “khoảnh khắc đau khổ tột cùng.”
Vẫn chưa rõ cơ quan nào sẽ được cảnh báo, hoặc thông tin nào sẽ được cung cấp cho họ, theo chính sách đề xuất của Altman. Tuy nhiên, thông báo của ông đánh dấu một sự thay đổi so với phương châm xử lý trước đây của ChatGPT, vốn bao gồm việc kêu gọi những người có ý định tự tử “gọi đến đường dây nóng tự tử,” tờ Guardian đưa tin.
Dưới những rào cản mới, ông trùm OpenAI tuyên bố sẽ mạnh tay xử lý những thanh thiếu niên cố gắng hack hệ thống bằng cách tìm kiếm lời khuyên tự tử dưới vỏ bọc nghiên cứu một câu chuyện hư cấu hoặc một bài báo y khoa.
Altman tin rằng ChatGPT có thể liên quan đến nhiều vụ tự tử hơn chúng ta tưởng, tuyên bố rằng trên toàn thế giới, “15,000 người tự tử mỗi tuần” và “khoảng 10% dân số thế giới đang nói chuyện với ChatGPT.”
“Cứ mỗi tuần lại có khoảng 1,500 người nói chuyện với ChatGPT, giả sử điều này là đúng, và cuối cùng vẫn tự tử,” vị doanh nhân công nghệ giải thích. “Có lẽ họ đã nói về điều đó. Có lẽ chúng tôi đã không cứu sống họ.”
Ông nói thêm, “Có lẽ chúng ta nên nói điều gì đó tốt hơn. Có lẽ chúng ta nên chủ động hơn.” Thật không may, Raine không phải là trường hợp đầu tiên được công khai rộng rãi về một người tự tử sau khi được cho là đã nói chuyện với AI.
OpenAI hứa sẽ ra mắt các công cụ bảo đảm an toàn cho phụ huynh cho ChatGPT ‘trong tháng tới’ sau những cái chết đáng lo ngại liên quan đến chatbot.
Năm ngoái, Megan Garcia đã kiện Character.AI về cái chết của con trai 14 tuổi Sewell Setzer III vào năm 2024 – với lý do cậu bé tự tử sau khi say mê một chatbot được mô phỏng theo nhân vật Daenerys trong “Game of Thrones.”
Trong khi đó, ChatGPT được ghi nhận là cung cấp hướng dẫn cách cắt cổ tay và các phương pháp tự gây thương tích khác.
Các chuyên gia AI cho rằng hiện tượng đáng tiếc này là do các biện pháp bảo vệ của ChatGPT còn hạn chế, cuộc trò chuyện càng dài, khả năng bot bị tấn công càng cao.’
“ChatGPT bao gồm các biện pháp bảo vệ như hướng dẫn mọi người đến đường dây nóng hỗ trợ khủng hoảng”, một phát ngôn viên của OpenAI cho biết trong một tuyên bố sau cái chết của Raine. “Mặc dù các biện pháp bảo vệ này hoạt động tốt nhất trong các cuộc trao đổi chung, ngắn gọn, nhưng theo thời gian, chúng tôi nhận thấy rằng đôi khi nó có thể trở nên kém tin cậy hơn trong các tương tác dài, nơi một số phần trong quá trình đào tạo an toàn của mô hình có thể bị suy giảm.”
Lỗi này đặc biệt đáng báo động khi xét đến sự phổ biến của việc sử dụng ChatGPT trong giới trẻ.
Theo một cuộc thăm dò của Common Sense Media, khoảng 72% thanh thiếu niên Mỹ sử dụng AI làm bạn đồng hành, trong khi cứ tám người thì có một người đang tìm đến công nghệ này để được hỗ trợ về sức khỏe tâm thần.
Để hạn chế các trường hợp hướng dẫn AI không an toàn, các chuyên gia đã khuyến nghị các biện pháp yêu cầu công nghệ này phải trải qua các thử nghiệm an toàn nghiêm ngặt hơn trước khi được cung cấp cho công chúng.
“Chúng tôi biết rằng hàng triệu thanh thiếu niên đã và đang sử dụng chatbot để được hỗ trợ sức khỏe tâm thần, và một số đang gặp phải những hướng dẫn không an toàn”, Ryan K. McBain, giáo sư phân tích chính sách tại Trường Chính Sách Công RAND, chia sẻ với tờ Post. “Điều này nhấn mạnh sự cần thiết phải chủ động quản lý và kiểm tra an toàn nghiêm ngặt trước khi những công cụ này trở nên phổ biến trong cuộc sống của thanh thiếu niên.”
(theo New York Post)
The post ChatGPT sẽ báo cảnh sát khi biết người chat có ý định tự tử appeared first on Saigon Nhỏ.