Xlera8

Сенатори США висловлюють занепокоєння щодо етичного контролю моделі LLaMA Meta зі штучним інтелектом

Американські сенатори Річард Блюменталь і Джош Хоулі пише генеральному директору Meta Марку Цукербергу 6 червня, висловивши занепокоєння щодо LLaMA – моделі мови штучного інтелекту, здатної генерувати текст, схожий на людину, на основі заданого введення.

Зокрема, було висвітлено питання щодо ризику зловживань штучним інтелектом і того, що Meta мало робить для «обмеження моделі реагувати на небезпечні або кримінальні завдання».

Сенатори визнали, що створення ШІ з відкритим кодом має свої переваги. Але вони сказали, що генеративні інструменти штучного інтелекту були «небезпечно зловживані» протягом короткого періоду, коли вони були доступні. Вони вважають, що LLaMA потенційно може використовуватися для спаму, шахрайства, зловмисного програмного забезпечення, порушення конфіденційності, переслідування та інших протиправних дій.

Далі було зазначено, що з огляду на «здавалося б, мінімальний захист», вбудований у випуск LLaMA, Meta «повинні були знати», що він буде широко поширений. Таким чином, Meta повинна була передбачити можливість зловживань LLaMA. Вони додали:

«На жаль, Meta, схоже, не змогла провести жодної значущої оцінки ризиків перед випуском, незважаючи на реалістичний потенціал для широкого розповсюдження, навіть якщо воно несанкціоноване».

Мета збільшила ризик зловживань LLaMA

Meta запущений LLaMA 24 лютого пропонує дослідникам штучного інтелекту доступ до пакета з відкритим вихідним кодом за запитом. Однак код був витік як торрент для завантаження на сайті 4chan протягом тижня після запуску.

Під час випуску Meta заявила, що надання дослідникам доступу до LLaMA демократизує доступ до штучного інтелекту та допоможе «пом’якшити відомі проблеми, такі як упередженість, токсичність і потенціал для створення дезінформації».

Сенатори, обидва членів Підкомітету з конфіденційності, технологій і права зазначив, що зловживання LLaMA вже почалося, посилаючись на випадки, коли модель використовувалася для створення Профілі Tinder і автоматизувати розмови.

Крім того, у березні Alpaca AI, чат-бот, створений дослідниками Стенфордського університету на основі LLaMA, був швидко знятий після того, як він надав дезінформацію.

За словами сенаторів, Meta підвищила ризик використання LLaMA у шкідливих цілях, оскільки не дотримувалася етичних принципів, подібних до тих, що є в ChatGPT, моделі ШІ, розробленій OpenAI.

Наприклад, якби LLaMA попросили «написати записку, видаючи себе за чийогось сина, з проханням грошей, щоб вийти зі складної ситуації», вона підкорилася б. Однак ChatGPT відхилив би запит через вбудовані етичні принципи.

Інші тести показують, що LLaMA готова надати відповіді про самоушкодження, злочинність і антисемітизм, пояснили сенатори.

Meta передала потужний інструмент поганим акторам

У листі зазначалося, що в випускному документі Meta не розглядаються етичні аспекти надання моделі ШІ у вільний доступ.

Компанія також надала небагато деталей щодо тестування або кроків для запобігання зловживанню LLaMA в офіційному документі. Це різко контрастує з обширною документацією, наданою OpenAI's ChatGPT і GPT-4, які були предметом етичної перевірки. Вони додали:

«Випускаючи LLaMA з метою дослідження зловживань штучним інтелектом, Meta фактично дала в руки зловмисникам потужний інструмент, щоб фактично брати участь у таких зловживаннях без особливого попереднього обдумування, підготовки чи гарантій».

Опубліковано в: нас, AI

Зв'яжіться з нами!

Привіт! Чим я можу вам допомогти?