Mô hình ngôn ngữ GPT đang đưa vào các tính năng bảo mật mới sau các vụ tự tử ở thanh thiếu niên gây chú ý và có thể yêu cầu người lớn xác minh bằng giấy tờ tùy thân ở một số quốc gia.
Các trường hợp “rối loạn tâm thần do AI” rõ ràng đang gia tăng, và nhiều người đã tự tử sau khi trò chuyện với mô hình ngôn ngữ lớn ChatGPT. Điều đó thật kinh khủng. Đại diện của OpenAI, nhà sản xuất ChatGPT, đang ra làm chứng trước Quốc hội Hoa Kỳ để phản hồi, và công ty đang công bố các phương pháp mới để phát hiện tuổi của người dùng. Theo CEO, điều đó có thể bao gồm xác minh ID.
Các hệ thống phát hiện tuổi mới đang được triển khai trong ChatGPT, và khi hệ thống tự động không thể tự xác minh rằng người dùng đã trưởng thành, nó sẽ mặc định chuyển sang trải nghiệm “dưới 18 tuổi” bị khóa chặt hơn, chặn nội dung khiêu dâm và “có khả năng liên quan đến cơ quan thực thi pháp luật để đảm bảo an toàn”. Trong một bài đăng trên blog riêng được Ars Technica phát hiện, CEO của OpenAI, Sam Altman, cho biết ở một số quốc gia, hệ thống cũng có thể yêu cầu ID để xác minh tuổi của người dùng.
“Chúng tôi biết đây là một sự thỏa hiệp về quyền riêng tư đối với người lớn, nhưng tin rằng đó là một sự đánh đổi xứng đáng”, Altman viết. Chính sách chính thức của ChatGPT là không cho phép người dùng dưới 13 tuổi, nhưng OpenAI tuyên bố rằng họ đang xây dựng một trải nghiệm phù hợp với trẻ em từ 13 đến 17 tuổi.
Altman cũng đề cập đến vấn đề quyền riêng tư, một mối lo ngại nghiêm trọng ở các quốc gia và tiểu bang hiện đang yêu cầu xác minh danh tính trước khi người lớn có thể truy cập nội dung khiêu dâm hoặc các nội dung gây tranh cãi khác. “Chúng tôi đang phát triển các tính năng bảo mật nâng cao để đảm bảo dữ liệu của bạn được riêng tư, ngay cả với nhân viên OpenAI”, Altman viết. Tuy nhiên, sẽ có những ngoại lệ, dường như tùy thuộc vào quyết định của hệ thống ChatGPT và OpenAI. “Việc lạm dụng nghiêm trọng tiềm ẩn”, bao gồm các mối đe dọa đến tính mạng hoặc kế hoạch gây hại cho người khác, hoặc “một sự cố an ninh mạng quy mô lớn tiềm ẩn”, có thể được kiểm duyệt bởi người điều hành.
Khi ChatGPT và các dịch vụ mô hình ngôn ngữ lớn khác ngày càng phổ biến, việc sử dụng chúng đã bị xem xét kỹ lưỡng hơn từ hầu hết mọi góc độ. “Rối loạn tâm thần AI” dường như là một hiện tượng mà người dùng giao tiếp với LLM như một con người, và bản chất dễ dãi của thiết kế LLM khiến họ rơi vào một vòng luẩn quẩn lặp đi lặp lại của ảo tưởng và nguy cơ gây hại tiềm ẩn. Tháng trước, cha mẹ của một thiếu niên 16 tuổi ở California đã tự tử đã đệ đơn kiện OpenAI về cái chết oan uổng. Thiếu niên này đã trò chuyện với ChatGPT, và nhật ký các cuộc trò chuyện được xác nhận là có thật bao gồm hướng dẫn thắt thòng lọng và những gì dường như là sự khuyến khích và ủng hộ cho quyết định tự tử.
Đây chỉ là trường hợp mới nhất trong một loạt các cuộc khủng hoảng sức khỏe tâm thần và tự tử đang tiếp diễn, dường như được truyền cảm hứng trực tiếp hoặc trở nên trầm trọng hơn khi trò chuyện với các sản phẩm “trí tuệ nhân tạo” như ChatGPT và Character.AI. Cả phụ huynh trong trường hợp trên và đại diện của OpenAI đều đã làm chứng trước Thượng viện Hoa Kỳ vào đầu tuần này trong một cuộc điều tra về hệ thống trò chuyện, và Ủy ban Thương mại Liên bang đang điều tra OpenAI, Character.AI, Meta, Google và xAI (hiện là chủ sở hữu chính thức của X, trước đây là Twitter, dưới thời Elon Musk) về các mối nguy hiểm tiềm ẩn của chatbot AI.