Xlera8

Użytkownicy AI Assistant mogą rozwinąć w sobie „emocjonalne przywiązanie” – ostrzega Google – odszyfruj

Wirtualni asystenci osobiści zasilani sztuczną inteligencją stają się wszechobecni na platformach technologicznych, w każdej większej firmie technologicznej dodanie sztucznej inteligencji do ich usług i dziesiątki usługi specjalistyczne wpadając na rynek. Naukowcy z Google twierdzą, że są one niezwykle przydatne, ale ludzie mogą przywiązać się do nich zbyt emocjonalnie, co może mieć wiele negatywnych konsekwencji społecznych.

nowa Referat naukowy z laboratorium badawczego Google DeepMind AI podkreśla potencjalne korzyści, jakie płyną z zaawansowanych, spersonalizowanych asystentów AI w przekształcaniu różnych aspektów społeczeństwa, twierdząc, że „mogą radykalnie zmienić charakter pracy, edukacji i zajęć twórczych, a także sposób, w jaki się komunikujemy, koordynujemy i negocjujemy ze sobą nawzajem, ostatecznie wpływając na to, kim chcemy być i kim chcemy się stać”.

Ten ogromny wpływ może oczywiście być mieczem obosiecznym, jeśli rozwój sztucznej inteligencji będzie nadal przyspieszał bez przemyślanego planowania.

Jedno kluczowe ryzyko? Tworzenie się niewłaściwie bliskich więzi – które mogą się zaostrzyć, jeśli asystentowi zostanie przedstawiona postać lub twarz przypominająca człowieka. „Te sztuczne czynniki mogą nawet wyznawać użytkownikowi swoje rzekome platoniczne lub romantyczne uczucie, kładąc podwaliny pod to, że użytkownicy będą mogli wytworzyć długotrwałe emocjonalne przywiązanie do sztucznej inteligencji” – czytamy w artykule.

Pozostawione bez kontroli takie przywiązanie może prowadzić do utraty autonomii użytkownika i utraty więzi społecznych, ponieważ sztuczna inteligencja może zastąpić interakcję międzyludzką.

Ryzyko to nie jest czysto teoretyczne. Nawet gdy sztuczna inteligencja była w dość prymitywnym stanie, chatbot AI był na tyle wpływowy, że mógł to zrobić przekonać użytkownika do samobójstwa po długiej rozmowie w 2023 r. Osiem lat temu asystentka e-mail oparta na sztucznej inteligencji o imieniu „Amy Ingram” była na tyle realistyczna, że ​​skłoniła niektórych użytkowników do wysyłania notatek miłosnych, a nawet spróbuj odwiedzić ją w pracy.

Iason Gabriel, pracownik naukowy w zespole badawczym zajmującym się etyką DeepMind i współautor artykułu, nie odpowiedział na Odszyfruj prośba o komentarz.

Jednak w tweecie Garbriel ostrzegł, że „coraz bardziej osobiste i ludzkie formy asystenta wprowadzają nowe pytania dotyczące antropomorfizmu, prywatności, zaufania i odpowiednich relacji z sztuczną inteligencją”.

Ponieważ „miliony asystentów sztucznej inteligencji można by wdrożyć na poziomie społecznym, gdzie będą wchodzić w interakcje między sobą i z osobami niebędącymi użytkownikami”, Gabriel stwierdził, że wierzy w potrzebę większej liczby zabezpieczeń i bardziej całościowego podejścia do tego nowego zjawiska społecznego.

W artykule badawczym omówiono również znaczenie dostosowania wartości, bezpieczeństwa i niewłaściwego użycia w rozwoju asystentów AI. Chociaż asystenci AI mogą pomóc użytkownikom poprawić ich samopoczucie, zwiększyć kreatywność i zoptymalizować czas, autorzy ostrzegają przed dodatkowymi zagrożeniami, takimi jak niezgodność z interesami użytkowników i społeczeństwa, narzucanie wartości innym, wykorzystywanie do złośliwych celów i podatność na zagrożenia na wrogie ataki.

Aby zaradzić tym zagrożeniom, zespół DeepMind zaleca opracowanie kompleksowych ocen asystentów AI i przyspieszenie rozwoju korzystnych społecznie asystentów AI.

„Obecnie stoimy na początku ery zmian technologicznych i społecznych. Mamy zatem okazję do działania już teraz – jako programiści, badacze, decydenci i zainteresowane strony publiczne – aby ukształtować takich asystentów AI, jakich chcemy widzieć na świecie”.

Niedopasowanie sztucznej inteligencji można złagodzić poprzez uczenie się przez wzmacnianie poprzez informację zwrotną od ludzi (RLHF), które jest wykorzystywane do uczenia modeli sztucznej inteligencji. Eksperci tacy jak Paul Christiano, który kierował zespołem dopasowywania modeli językowych w OpenAI, a obecnie kieruje organizacją non-profit Alignment Research Center, ostrzegają, że niewłaściwe zarządzanie metodami szkoleniowymi AI może zakończyć się katastrofą.

„Myślę, że prawdopodobieństwo przejęcia kontroli przez sztuczną inteligencję wynosi około 10–20%, przy czym wielu [lub] większość ludzi nie żyje” – Paul Christiano powiedziany w zeszłym roku w podcaście Bankless. „Traktuję to całkiem poważnie”.

Edytowany przez Ryana Ozawy.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

Czat z nami

Cześć! Jak mogę ci pomóc?