Что мы вынесли после того, как Google AI посоветовал есть камни
Это наш подзабытый формат пересказа-сводки. Мы прочли много материалов, чтобы рассказать вам про AI Overviews. Так как эта фича запустилась лишь в Америке, мы не можем затестить ее лично, но можем вынести несколько полезных уроков. Сама история тому благоволит: наш любимый поисковик советовал людям есть камни, клеить сыр к пицце, а также рассказывал, что у человеческих жертвоприношений есть свои плюсы. Сейчас ситуацию поправили, пусть и не полностью, а значит, самое время о ней поговорить.
Читается за
Что произошло?
MIT Technology Review: Когда Google объявила, что в этом месяце запускает свою функцию поиска, основанную на искусственном интеллекте, компания пообещала, что “Google будет гуглить за вас”. Новая функция, называемая AI Overviews, предоставляет краткие сводки, сгенерированные ИИ, которые выделяют ключевую информацию и ссылки в верхней части результатов поиска.
К сожалению, системы ИИ по своей природе ненадежны. Через несколько дней после выпуска AI Overviews в США пользователи начали делиться примерами ответов, которые в лучшем случае были странными. ИИ предлагал пользователям добавлять клей в пиццу или съедать по крайней мере один маленький камень в день, а также утверждал, что бывший президент США Эндрю Джонсон получил университетские степени в период с 1947 по 2012 годы, несмотря на то, что он умер в 1875 году.
Гуглить за вас – удивительная по своей смысловой нагрузке фраза. Понятное дело, что это маркетинг. Но одно из условий поисковиков – вы в ответе за информацию, которую сочтете верной. Например, вы ищите причины/даты/события Столетней войны. Можете взять их из первой ссылки – Википедии, а можете долистать до 18 страницы, где найдете сайт под названием “Альтернативная История” и найти ответ там. В конце концов, это ваше решение. Данный пример достаточно безобиден, но когда дело доходит, например, до здоровья, то здесь лучше не рисковать.
Google решил, что искать самим – слишком энергозатратно и он возьмет на себя роль главенствующего голоса. Они купили огромную базу данных Reddit, из которой их ИИ и брал ответы. Вот вам пример, возьмем его из материала The Verge:
Представьте себе: вы выделили вечер, чтобы расслабиться, и решили приготовить домашнюю пиццу. Вы собираете свою пиццу, ставите ее в духовку и с нетерпением ждете, когда сможете начать есть. Но, когда вы готовитесь откусить свой маслянистый шедевр, сталкиваетесь с проблемой – сыр падает. Разочарованные, вы обращаетесь к Google за решением.
“Добавьте немного клея”, — отвечает Google. “Смешайте примерно 1/8 чашки клея Эльмера с соусом. Нетоксичный клей подойдет”.
На момент написания этой статьи именно это посоветует вам новая функция AI Overviews от Google. Функция, которая активируется не для каждого запроса, сканирует веб и генерирует ответ на основе ИИ. Ответ, полученный на запрос о пицце с клеем, кажется, основан на комментарии пользователя по имени fucksmith в более чем десятилетней ветке на Reddit, и это явно шутка.
Это лишь одна из многих ошибок, возникающих в новой функции, которую Google широко представила в этом месяце. Она также утверждает, что бывший президент США Джеймс Мэдисон окончил Висконсинский университет не один, а 21 раз, что собака играла в НБА, НФЛ и НХЛ, а также что Бэтмен – это полицейский.
Глубина проблемы
Случалось, что AI находил правильный источник, но интерпретация оставляла желать лучшего. Об этом отлично написано все у тех же MIT Technology Review:
Хотя ошибка с клеем для пиццы является хорошим примером случая, когда AI Overviews указала на ненадежный источник, система также может генерировать дезинформацию из фактически правильных источников. Мелани Митчелл, исследователь искусственного интеллекта из Института Санта-Фе в Нью-Мексико, загуглила “Сколько президентов мусульман было в США?”. AI Overviews ответила: “В Соединенных Штатах был один президент мусульманин, Барак Хусейн Обама”.
Хотя Барак Обама не является мусульманином, что делает ответ AI Overviews неверным, он взял информацию из главы академической книги под названием “Барак Хусейн Обама: Первый мусульманский президент Америки?”. Таким образом, система ИИ не только упустила смысл эссе, но и интерпретировала его прямо противоположным образом, говорит Митчелл. “Здесь есть несколько проблем для ИИ; одна из них заключается в нахождении хорошего источника, который не является шуткой, а другая — в правильной интерпретации того, что говорит источник”, добавляет она. “Это то, с чем у систем ИИ возникают трудности, и важно отметить, что даже когда система находит хороший источник, она все равно может совершать ошибки”.
В целом, поисковик всегда давал человеку выбор – чему верить. Конечно, многое зависит от самого поисковика: варианты Google будут отличаться от вариантов Яндекс. И это нормально. И тоже – выбор. Но когда то, чему вы доверяете, дает самым первым результатом что-то спорное – это проблема.
Решение
Fast Company: … После инцидента с бывшим президентом США Обамой, Google ввела немедленное исправление, чтобы предотвратить подобные ошибки, сославшись на нарушение политики компании по содержанию.
Рейд также отметила усилия по улучшению системы, включая обнаружение “бессмысленных запросов”, таких как “Сколько камней мне следует съесть?”, на которые не следует давать ответ с помощью ИИ. Кроме того, системы ИИ были обновлены для ограничения использования контента, созданного пользователями, вроде постов в социальных сетях на Reddit, которые могут содержать вводящие в заблуждение советы…
Для повышения качества ответов, особенно на чувствительные темы, такие как здоровье, Google добавила больше “триггерных ограничений”. Однако конкретика этих улучшений остается неясной. Когда Associated Press снова спросила Google о том, какие дикие грибы можно есть, сгенерированные ИИ ответы все еще были проблематичными. Например, ИИ неверно заявил, что “лисички похожи на раковины или цветы”, отметила Эйм, эксперт по грибам из Purdue и президент Микологического общества Америки.
Сама компания утверждает, что AI Overviews Google обычно не “галлюцинирует” и не выдумывает информацию, как другие продукты на основе больших языковых моделей, поскольку он более тесно интегрирован с традиционной поисковой системой Google и показывает только то, что подтверждено лучшими результатами в интернете.
“Когда AI Overviews ошибается, это обычно происходит по другим причинам: неправильная интерпретация запросов, неправильная интерпретация нюансов языка в интернете или нехватка качественной информации”, – написала она.
Это выглядит как некий временный фикс. Языковые модели все еще ошибаются, и это не полностью их вина. Иногда людям самим бывает сложно разобраться в том, какой источник надежный, а какой – нет. ИИ-сгенерированные картинки захватили фейсбук, которые ломают монетизацию, когда люди бесконечно реагируют на несуществующих безлапых собак, удивляются поведению звезд, хотя это дипфейки, и так далее. А мы ждем, что компьютер моментально разберется во всем этом хламе. Конечно, почти никогда не стоит ссылаться на шутливые издания и посты в социальных сетях, и это легко починить, но в тех тоннах оставшихся источников, какой наверняка верный? Если вы когда-либо занимались историческими исследования, то знаете, что даже Википедия ошибается. И пока неясно, как это все собирается решить Google.
Другие спорные ИИ моменты
Все это происходило на фоне коротких summary в чатах на прямых трансляциях. Компания ввела функцию, что ИИ, специально для каждого пользователя, суммирует то, что происходит в чате. Сделано это было для того, чтобы каждый новый человек мог знать, что обсуждается.
Недавно пользователи чата решили затроллить одного блоггера и массово писали, что тот несколько лет назад в пьяном состоянии сбил человека и скрылся с места преступления. Именно об этом и рассказал Summary. Если вы не знаете, как работает система, и что люди в интернете очень любят издеваться, то вы вполне можете в это поверить.
Вот Shorts, где он рассказывает об этом случае.
И это далеко не все сложности компании. Так в Wired недавно вышел материал о том, что Google приоритезирует для выдачи статьи написанные ИИ, которые прямо плагиатят реальные источники:
Ища последнюю информацию о политике Adobe в области искусственного интеллекта, я ввел в Google запрос adobe train ai content и переключился на вкладку “Новости”. Я уже видел статью от WIRED, которая занимала вторую позицию на странице результатов: “Adobe утверждает, что не будет обучать ИИ, используя работы художников. Творцы не уверены”. На первом месте результатов поиска была статья, заголовок которой вызвал у меня дежавю: “Когда Adobe пообещала не обучать ИИ на контенте художников, творческое сообщество отреагировало с недоверием”.
Это был спамный сайт, заполненный перепакованными плагиатными статьями, многие из которых сопровождались иллюстрациями, сгенерированными ИИ. В этой спамной статье весь материал из статьи WIRED был скопирован с небольшими изменениями в формулировках. Даже оригинальные цитаты были переняты. Одинокая гиперссылка внизу веб-страницы, ведущая к нашей версии статьи, служила единственной формой атрибуции…
Да, Google иногда предоставляет пользователям достойный опыт, защищая их от посещения сомнительных порнографических сайтов при поиске по несвязанным, популярным запросам. Но остается разумным ожидать от одной из самых мощных компаний в мире, имеющей значительное влияние на то, как онлайн-контент создается, распространяется и потребляется, что она будет лучше фильтровать плагиатный, бесполезный контент из результатов поиска в разделе “Новости”.
Выводы
Помните, если вы тестируете какую-то ИИ-функцию, она может давать неверные ответы. Технологиям нужно больше времени, больше тестов, больше данных и модерации, чтобы они действительно стали полезными.
Знаете, что забавно? Несмотря на ужасный старт Overviews, акции Google выросли в цене.
Investors: По состоянию на 29 июня, акции Google выросли на 30% в 2024 году. Кроме того, акции Google занимают 20-е место в списке IBD 50 компаний с ростом.
Недавний отчет Goldman Sachs, в котором подводились итоги 2024 года, отметил, что настроения инвесторов по поводу искусственного интеллекта улучшились, хотя и не без некоторых сбоев.
Это все представляет из себя достаточно проблемный прецедент: вы выкатываете ИИ-фичу, она не работает, бумаги растут в цене. Значит ли это, что наличие ИИ важнее функциональности, а главное – необходимости?
На этот вопрос у нас нет ответа. Возможно, мы преувеличиваем масштабы проблемы, просто не хочется, чтобы одна из величайших технологий в истории вместо того, чтобы фокусироваться на решении глобальных проблем, использовалась как удочка для денег.
Рекомендуется к прочтению
What to read next
Времени раздумывать не осталось – крупнейшее мероприятие в ...
И снова время экспериментов. Наш редактор Катерина заварила домашний ...
Выигравший не так давно Нобелевскую Премию Джеффри Хинтон ...