Технология искусственного интеллекта сейчас столкнулась не только с риском ошибочных ответов, но и с угрозой намеренного «отравления». По совместному исследованию Британского института безопасности искусственного интеллекта, Института Алана Тьюринга и Anthropic, модель можно тайно манипулировать, добавив всего 250 вредоносных файлов в тренировочную базу из миллионов данных.
Medianews.az, ссылаясь на BAKU.WS, сообщает, что этот процесс объясняется как преднамеренное обучение искусственного интеллекта с ложной информацией или внедрение скрытых команд. Эксперты отмечают, что такие «отравленные» модели могут привести к распространению дезинформации и кибератакам.
В исследовании также указывается, что некоторые художники сознательно внедряют «отраву» в свои произведения, чтобы предотвратить несанкционированное использование их материалов искусственным интеллектом.
Эксперты предупреждают, что подобные случаи в будущем могут серьезно подорвать доверие к технологиям искусственного интеллекта.