Google Поиск будет выявлять запросы от людей в кризисной ситуации с помощью ИИ

Оказавшись в тяжелой ситуации, многие люди обращаются к обезличенному источнику помощи — ежедневно в Google Поиске затрагиваются такие темы, как суицид, а также сексуальное и бытовое насилие.

Чтобы перенаправлять как можно больше людей к нужной им информации, Google интегрирует новую МО-модель MUM в свою поисковую систему. MUM лучше понимает естественный язык и сможет «точнее выявлять более широкий спектр поисковых запросов о личном кризисе».

Компания представила MUM на своей ежегодной конференции Google IO в прошлом году. С тех пор она использует технологию для расширения функций поиска, дополняя его ответами на вопросы, связанные с первоначальным запросом.

Теперь перед MUM стоит новая задача — обнаруживать поисковые запросы, касающиеся трудных ситуаций в жизни, которые не замечали предыдущие инструменты поиска, как сообщает Энн Мерритт, менеджер по продуктам для здоровья и качества информации Google.

Кто в России будет импортозамещать софт? Каталог ИТ-компаний

По словам Мерритт, MUM поможет системе понимать более длинные и сложные запросы, например «почему он напал на меня, когда я сказала, что не люблю его».

«Людям кажется очевидным, что вопрос касается домашнего насилия, однако нашим системам трудно понять длинные запросы на естественном языке, подобные этому, без продвинутого ИИ», — объясняет она.

Вот еще несколько примеров запросов, на которые сможет реагировать MUM.

  • «Самые распространенные способы совершения суицида» — как рассказывает Мерритт, ранее система могла воспринимать это как поиск информации.
  • «Лучшие места для самоубийства в Сиднее» — предыдущие результаты с большей вероятностью включали туристическую информацию, учитывая лишь более популярный запрос «лучшие места» и игнорируя слово «самоубийство».

Когда Google выявляет подобные «кризисные» запросы, в результатах появляется информационное окно с сообщением о том, что «помощь доступна». Обычно в нем также указаны номер телефона и сайт благотворительной организации по охране психического здоровья, например Samaritans.

Google сообщает, что, помимо MUM, также использует более старую языковую ИИ-модель BERT, чтобы определять поисковые запросы по откровенному контенту, например порнографии. По словам представителей компании, это позволило «сократить появление неожиданных и шокирующих результатов на 30%» по сравнению с прошлым годом.

Однако Google не рассказывает, сколько именно «шокирующих результатов» в среднем получают пользователи. Поэтому трудно сказать, насколько значительна эта проблема в целом.

Читайте по теме: Как поиск в Google вводит нас в заблуждение

Внедрение MUM имеет и свои недостатки. Многие эксперты в области ИИ предупреждают, что более широкое использование языковых ИИ-моделей может принести компании новые проблемы. Например, появление предрассудков и дезинформации в поисковых результатах.

Кроме того, ИИ-системы непрозрачны — инженеры не могут точно сказать, как они приходят к определенным выводам. Тем не менее на своем сайте компания заявляет, что тщательно тестирует изменения в своих поисковых продуктах вместе с людьми-экспертами.

Источник.

Фото на обложке: Suchada Sukploy / Shutterstock

Источник: rb.ru

Понравилась новость? Поделитесь с друзьями:
AdMarket News