Нейросети могут нанести урон репутации любого человека

Виктор Корзун 38.6k просмотров
5 мин читать

Не так давно, профессор права Джонатан Терли столкнулся с необычной ситуацией: нейросеть ChatGPT добавила его имя в список юристов, предположительно вовлечённых в сомнительную и незаконную деятельность.

Согласно утверждениям бота, эти данные были взяты из несуществующего материала в The Washington Post. Несмотря на то, что обвинения оказались полностью ложными, этот случай подчёркивает проблемы, связанные с использованием нейросетей и ответственностью за распространение дезинформации, сообщил эксперт Родион Кадыров.

Он отметил, что подобные инциденты не являются единичными случаями. Современные языковые модели, такие как ChatGPT от OpenAI, способны генерировать недостоверную информацию, которая может поставить под угрозу репутацию и даже жизнь людей. Важно отметить, что подобные «иллюзии» нейросетей являются обычным явлением и возникают из-за специфики их работы.

Кадыров утверждает, что такие «галлюцинации» у нейросетей возникают, когда модели искусственного интеллекта пытаются найти ответ на запрос и начинают «придумывать» данные. Это происходит, когда запрос требует определённого объёма информации, а у нейросети недостаточно точных данных для его выполнения.

Например, если попросить нейросеть назвать десять имён, связанных с каким-либо событием, она может выдумать семь экспертов, хотя на самом деле знает только трёх, — отмечает эксперт.

Такие ошибки могут возникать по разным причинам.

Специалист отметил, что нейросети обучаются на больших объёмах данных, которые не всегда являются достоверными. Это связано с тем, что они собирают информацию из интернета, где встречаются как правдивые, так и ложные сведения. В результате нейросети могут генерировать информацию на основе этих некорректных данных.

нейросеть

Кроме того, предсказательный характер ИИ заключается в том, что модели искусственного интеллекта работают на основе прогнозирования возможных последовательностей слов. Если нейросети не хватает данных для формирования правильного ответа, она может дополнить недостающую информацию, чтобы создать правдоподобный текст.

Однако у нейросетей отсутствует встроенная система проверки фактов, поэтому они не могут самостоятельно проверять достоверность созданного текста. Вместо этого они могут ссылаться на несуществующие статьи, события или людей, создавая видимость достоверности информации.

Проблема дезинформации, созданной искусственным интеллектом, не ограничивается только текстовыми данными. В марте 2023 года активно обсуждались изображения, которые якобы показывали арест бывшего президента США Дональда Трампа. Эти фейковые фотографии были сделаны с помощью ИИ и стали популярными в социальных сетях, хотя события, изображённые на них, никогда не происходили.

арест бывшего президента США Дональда Трампа

Эти изображения были частью шутки, но многие восприняли их всерьёз, что вызвало путаницу в новостных источниках и продемонстрировало разрушительный потенциал технологий ИИ. Это также указывает на отсутствие эффективного контроля со стороны социальных сетей и необходимость введения более строгих стандартов и правил для использования ИИ в таких чувствительных областях, — добавил Кадыров.

Проверка информации, созданной нейросетями, всегда лежит на пользователе. Все упоминания о людях, документах или событиях, предоставленные ИИ, должны быть перепроверены с помощью надёжных источников. Это особенно важно в ситуациях, когда такие данные могут повлиять на репутацию человека.

Однако, когда ложная информация становится частью общественного обсуждения, особенно в средствах массовой информации или публичных источниках, государственное регулирование становится необходимым.

Среди возможных мер можно выделить маркировку информации: все данные, созданные нейронными сетями, должны быть чётко обозначены, чтобы пользователи знали об их происхождении с помощью искусственного интеллекта. Это позволит относиться к таким данным с большей осторожностью.

Также следует обратить внимание на ответственность за использование ненадёжных источников: люди или организации, распространяющие информацию из нейронных сетей без проверки, должны нести такую же ответственность, как и за использование любых других ненадёжных источников.

Наконец, необходимо разработать правовые механизмы, регулирующие использование нейронных сетей в ситуациях, когда это может повредить репутации людей. Это поможет предотвратить распространение дезинформации и защитить граждан от несправедливых обвинений.

Эксперт обратил внимание на то, что такие случаи, как инцидент с Джонатаном Терли и фейковыми фотографиями ареста Дональда Трампа, подчёркивают значимость ответственного применения ИИ. Искусственные нейронные сети могут быть мощным инструментом, однако их ошибки могут привести к серьёзным последствиям. Поэтому важно осознавать не только риски, связанные с использованием ИИ.

Поделиться
Мы знаем, вам есть что сказать!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *