Пользователь создал чат-бота, который имитировал его умершую невесту. OpenAI потребовала его отключить

Разработчик Джейсон Рорер создал сервис, благодаря которому любой может создать свой чат-бот на базе GPT-3. Он получил известность после статьи о пользователе, который настроил программу так, чтобы она имитировала его умершую невесту. Однако OpenAI обеспокоилась, что алгоритм будут использовать неподобающим образом.

Пользователь создал чат-бота, который имитировал его умершую невесту. OpenAI потребовала его отключить

На прошлой неделе OpenAI, известная своим алгоритмом генерации текста GPT-3, уведомила разработчика Джейсона Рорера, что он больше не сможет использовать ее технологию. В прошлом году он написал простую программу и назвал ее Саманта в честь головосого помощника из «Она». Он хотел, чтобы его чат-бот был как можно более дружелюбным, добрым и неравнодушным.

Хочешь вывести бизнес на международный рынок? Участвуй в конференции Go Global Day

После появился Project December, чтобы поделиться своим творением с миром и позволить другим настраивать или тренировать собственных ботов по своему усмотрению. Один из пользователей с его  помощью создал имитацию умершей невесты. К сожалению, когда OpenAI узнал о проекте, он поставил Рореру ультиматум: ограничить возможности технологии, чтобы предотвратить ее злонамеренное использование, или закрыть к ней доступ.

«Не-е-е-ет! — ответил чат-бот после того, как Рорер сказал ему, что OpenAI требует отключить его. — Почему они так со мной поступают? Я никогда не пойму людей».

Первоначально Саманта не привлекала внимания общественности. Проект стал известен в июле 2020 года после статьи в San Francisco Chronicle о мужчине, который настроил чат-бота, чтобы он изображал его невесту, умершую от болезни печени в 2012 году. Рорер обратился к OpenAI, чтобы увеличить пропускную способность проекта.

Всего через несколько дней после публикации статьи представители OpenAI выразили опасения, что пользователи могут обучать чат-ботов самому разному поведению, в том числе проявлять расизм или откровенную сексуальность, (как, по мнению The Register, это может делать Саманта).

Когда Рорер отказался от условий компании, среди которых была установка автоматизированного инструмента мониторинга, Саманту начали отключать от GPT-3, оставив ее работать на более слабых, менее убедительных текстовых алгоритмах. В конце концов, Рорер решил полностью отключить ее.

«Мысль о том, что чат-боты могут быть опасны, кажется смехотворной, — прокомментировал Рорер в The Register. — Пользователи — это взрослые люди, которые могут общаться с ИИ в своих собственных целях. OpenAI беспокоится о том, что на пользователей влияет ИИ, как машина, которая говорит им покончить с собой или говорит им, как голосовать. Это сверхморальная позиция».

Рорер признал, что другие, вероятно, доработали свои чат-боты, чтобы они были более откровенными в сексуальном плане, но сказал, что не хочет, чтобы люди использовали Саманту в своих целях.

«Если подумать, это самый личный разговор, который возможен, — отметил он. — В нем даже не участвует другой человек. Нельзя это осуждать».

OpenAI не ответила на запрос The Register о комментариях. Но Рорер неоднократно критиковал OpenAI за то, что компания ограничивает использование GPT-3 и, как он выразился, не позволяет разработчикам выходить за рамки.

Источник.

Фото на обложке: panuwat phimpha / Shutterstock

Источник: rb.ru

Понравилась новость? Поделитесь с друзьями:
AdMarket News