Xlera8

Google cảnh báo người dùng trợ lý AI có thể phát triển 'sự gắn bó tình cảm' với họ

Trợ lý cá nhân ảo được hỗ trợ bởi trí tuệ nhân tạo đang trở nên phổ biến trên các nền tảng công nghệ, với mọi công ty công nghệ lớn thêm AI cho các dịch vụ của họ và hàng chục dịch vụ chuyên biệt nhào lộn trên thị trường. Mặc dù vô cùng hữu ích nhưng các nhà nghiên cứu từ Google cho biết con người có thể trở nên quá gắn bó về mặt cảm xúc với chúng, dẫn đến một loạt hậu quả xã hội tiêu cực.

A mới bài nghiên cứu từ phòng thí nghiệm nghiên cứu AI DeepMind của Google nhấn mạnh những lợi ích tiềm năng của trợ lý AI tiên tiến, được cá nhân hóa để biến đổi các khía cạnh khác nhau của xã hội, cho biết chúng “có thể thay đổi hoàn toàn bản chất công việc, giáo dục và theo đuổi sáng tạo cũng như cách chúng ta giao tiếp, điều phối và đàm phán”. với nhau, cuối cùng ảnh hưởng đến con người chúng ta muốn trở thành và trở thành.”

Tất nhiên, tác động quá lớn này có thể là con dao hai lưỡi nếu quá trình phát triển AI tiếp tục tăng tốc mà không có kế hoạch chu đáo.

Một rủi ro chính? Sự hình thành các mối liên kết chặt chẽ không thích hợp—điều này có thể trở nên trầm trọng hơn nếu trợ lý được thể hiện với hình ảnh hoặc khuôn mặt giống con người. Bài báo cho biết: “Những tác nhân nhân tạo này thậm chí có thể bày tỏ tình cảm được cho là thuần khiết hoặc lãng mạn của chúng đối với người dùng, đặt nền tảng cho người dùng hình thành những gắn bó tình cảm lâu dài với AI”.

Nếu không được kiểm soát, phần đính kèm như vậy có thể dẫn đến mất quyền tự chủ cho người dùng và mất mối quan hệ xã hội vì AI có thể thay thế sự tương tác của con người.

Rủi ro này không hoàn toàn là lý thuyết. Ngay cả khi AI còn ở trạng thái sơ khai, chatbot AI vẫn đủ sức ảnh hưởng để thuyết phục người dùng tự sát sau một cuộc trò chuyện dài vào năm 2023. Tám năm trước, một trợ lý email được hỗ trợ bởi AI có tên “Amy Ingram” đủ thực tế để thúc đẩy một số người dùng gửi những lời nhắn yêu thương và thậm chí cố gắng đến thăm cô ấy tại nơi làm việc.

Iason Gabriel, một nhà khoa học nghiên cứu trong nhóm nghiên cứu đạo đức của DeepMind và đồng tác giả của bài báo, đã không trả lời Giải mã Yêu cầu nhận xét.

Tuy nhiên, trong một tweet, Garbriel cảnh báo rằng “các hình thức trợ lý ngày càng mang tính cá nhân và giống con người đặt ra những câu hỏi mới xung quanh thuyết hình người, quyền riêng tư, sự tin cậy và các mối quan hệ phù hợp với AI”.

Bởi vì “hàng triệu trợ lý AI có thể được triển khai ở cấp độ xã hội nơi họ sẽ tương tác với nhau và với những người không sử dụng”, Gabriel cho biết ông tin rằng cần có nhiều biện pháp bảo vệ hơn và cách tiếp cận toàn diện hơn đối với hiện tượng xã hội mới này.

Bài nghiên cứu cũng thảo luận về tầm quan trọng của việc liên kết giá trị, tính an toàn và sử dụng sai mục đích trong quá trình phát triển trợ lý AI. Mặc dù trợ lý AI có thể giúp người dùng cải thiện sức khỏe, nâng cao khả năng sáng tạo và tối ưu hóa thời gian của họ, nhưng các tác giả vẫn cảnh báo về những rủi ro bổ sung như không phù hợp với lợi ích của người dùng và xã hội, áp đặt giá trị lên người khác, sử dụng cho mục đích xấu và dễ bị tổn thương. trước các cuộc tấn công của đối phương.

Để giải quyết những rủi ro này, nhóm DeepMind khuyến nghị phát triển các đánh giá toàn diện cho trợ lý AI và đẩy nhanh sự phát triển của trợ lý AI có lợi cho xã hội.

“Chúng ta hiện đang ở giai đoạn đầu của kỷ nguyên thay đổi công nghệ và xã hội. Do đó, chúng tôi có cơ hội hành động ngay bây giờ—với tư cách là nhà phát triển, nhà nghiên cứu, nhà hoạch định chính sách và các bên liên quan trong cộng đồng—để định hình loại trợ lý AI mà chúng tôi muốn thấy trên thế giới.”

Sự sai lệch của AI có thể được giảm thiểu thông qua Học tập tăng cường thông qua phản hồi của con người (RLHF), được sử dụng để đào tạo các mô hình AI. Các chuyên gia như Paul Christiano, người điều hành nhóm liên kết mô hình ngôn ngữ tại OpenAI và hiện lãnh đạo Trung tâm nghiên cứu liên kết phi lợi nhuận, cảnh báo rằng việc quản lý các phương pháp đào tạo AI không đúng cách có thể kết thúc trong thảm họa.

“Tôi nghĩ có lẽ có khoảng 10-20% khả năng AI sẽ tiếp quản, [với] nhiều [hoặc] hầu hết con người đã chết,” Paul Christiano nói trên podcast Bankless năm ngoái. “Tôi khá coi trọng vấn đề này.”

Sửa bởi Ryan Ozawa.

Luôn cập nhật tin tức về tiền điện tử, cập nhật hàng ngày trong hộp thư đến của bạn.

Trò chuyện trực tiếp với chúng tôi (chat)

Chào bạn! Làm thế nào để tôi giúp bạn?