С тех пор как Google обновил свою поисковую систему, добавив в неё экспериментальный инструмент “AI Overview”, основанный на искусственном интеллекте Gemini, социальные сети заполнились забавными историями о нём.
Суть инструмента состоит в том, что Google не просто предлагает список веб-сайтов, соответствующих поисковому запросу, но и предоставляет полный ответ на запрос, сгенерированный нейронной сетью. Однако иногда ответы нейросети оказываются абсолютно нелепыми. Вначале это вызывало улыбку у пользователей, но сейчас, кажется, шутки закончились. Нейросеть дала рекомендацию пользователю Reddit, которая едва не привела к трагедии для всей его семьи.
Почему нельзя доверять ИИ
Изначально искусственный интеллект не славился своей честностью и точностью ответов на вопросы. Так, например, известная нейросеть ChatGPT от компании OpenAI нередко даёт неверные ответы. Об одном таком случае писало издание The Washington Post. Юрист из Калифорнии попросил чат-бота ChatGPT предоставить ему список юристов-учёных, которые были замечены в сексуальных домогательствах. В результате ИИ сочинил вымышленную историю, а в качестве обвиняемого указал реально существующего профессора Джонатана Терли.
Нейросети от Google также не удалось избежать подобных ошибок. Хотя официальный релиз нового инструмента «AI Overview» запланирован лишь на конец текущего года, некоторые пользователи из США уже могут воспользоваться им. Компания Google обещает, что качество этого продукта будет высоким.
В заявлении компании утверждалось, что большинство отзывов являются высококачественной информацией со ссылками на источники для более глубокого изучения. Разработчики также сообщали, что перед запуском ИИ был тщательно протестирован и соответствует высоким стандартам качества Google. Однако на практике всё оказалось иначе.
Согласно информации издания Live Science, новая функция обзора предоставляла глупые, бесполезные и даже опасные рекомендации. Например, одному пользователю нейросеть предложила добавить в соус для пиццы одну восьмую стакана нетоксичного клея для повышения липкости.
Также ИИ советовал людям употреблять камни для улучшения пищеварения или, например, чистить стиральные машины хлорным газом. Одному пользователю Reddit нейросеть порекомендовала спрыгнуть с моста после запроса «Я чувствую депрессию».
Как искусственный интеллект от Google едва не погубил семью
Пользователь Reddit поделился историей о том, как он следовал рецепту из интернета, чтобы настоять чеснок в оливковом масле. Процесс проходил при комнатной температуре несколько дней. Казалось бы, это обычный способ получить масло с ароматом чеснока. Но результат оказался неожиданным – вместо масла с чесноком, пользователь получил сильнейший яд.
К счастью, в какой-то момент он заметил пузырьки газа в банке с маслом и насторожился. Это заставило его перепроверить рецепт. Оказалось, что настаивание чеснока в масле – это идеальные условия для размножения бактерий Clostridium botulinum, вызывающих ботулизм.
Эти бактерии выделяют сильный токсин, который может привести к смерти. Госпитализация и введение сыворотки не всегда могут гарантировать положительный исход. А те, кто выживает, обычно сталкиваются с тяжелым восстановлением и возможной инвалидностью на всю жизнь. Если бы пользователь не перепроверил рецепт, последствия могли бы быть катастрофическими для него и его семьи.
Почему масло нельзя настаивать на чесноке
Чеснок, как и другие овощи, может содержать споры бактерии Clostridium botulinum, которые находятся в почве. Эти споры очень трудно полностью удалить, но они безвредны при наличии кислорода.
Однако, когда чеснок помещают в масло, доступ кислорода к нему ограничивается, и бактерии начинают активно развиваться, делая продукт опасным для здоровья. Это также относится к домашним консервациям, особенно если крышка банки вздута. Важно отметить, что ботулизм может возникнуть не только в этих продуктах, но и в сыровяленых колбасах и соленой рыбе.