Эксперты рассказали, почему искусственный интеллект иногда присылает фейковые ссылки и выдумывает информацию. Об этом пишет Baza.
Современные возможности искусственного интеллекта поражают воображение, однако полностью доверять нейросетям все еще нельзя. В последнее время пользователи все чаще сталкиваются с так называемыми “галлюцинациями” — несуществующими или устаревшими ссылками, а также искаженной информацией. Например, недавно редакция Chicago Sun-Times получила список книг для летнего чтения, составленный с помощью чат-бота — при этом выяснилось, что некоторые из предложенных книг вовсе не существуют. Почему так происходит?
Об этом рассказали эксперты в области ИИ. Ведущий разработчик компании MWS AI (входит в МТС Web Services) Иван Копылов пояснил: “Языковые модели иногда создают фейковые или несуществующие ссылки, потому что опираются на данные, использованные во время обучения. У них нет доступа к интернету, они используют сохраненные веб-страницы из своей базы. Модель не проверяет, существует ли URL на самом деле — она просто комбинирует знакомые шаблоны и формирует правдоподобную, но вымышленную ссылку. Даже если у модели есть доступ в интернет, она не может гарантировать достоверность информации, так как не переходит по ссылкам и не анализирует содержимое сайтов”.
Поддерживает эту точку зрения и Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского»: “Большие языковые модели — это, по сути, ‘воспоминание’ о контенте, на котором они обучались. Если представить, что человек вспоминает сцену из фильма — он запомнит основные моменты, но может не помнить деталей вроде цвета глаз актера или номера машины. Так и ИИ: когда речь идет о общих темах, все работает хорошо, а при необходимости точных данных — дат, ссылок или адресов — модели могут ‘вылететь’ и начать выдумывать факты — это и есть галлюцинации”.
В настоящее время активно ведутся исследования по повышению точности ИИ. Один из методов — RAG (Retrieval-Augmented Generation), при котором модель сначала ищет информацию в проверенных источниках, а затем формирует ответ. Также специалисты настраивают модели на работу с тщательно подобранными данными, маркировку спорных фактов и разработку инструментов, объясняющих ход мыслей модели — все это направлено на повышение прозрачности и снижение количества ошибок. Иван Копылов указывает, что в будущем появятся специалисты по промт-инжинирингу, которые будут настраивать ИИ для работы только с надежными данными.

Эксперты подчеркивают, что сейчас ИИ стремится дать убедительный ответ любой ценой и угодить пользователю, даже если информации недостаточно. В таких случаях рекомендуется перепросить или уточнить запрос — например, попросить модель проверить ссылки через поиск и основывать ответ только на существующих источниках. Однако эксперты напоминают: ни один инструмент не заменит человеческую проверку.
“Нейросеть — это инструмент, как лопата. Разобрать то, что она выкопала, должен человек”, — заключает Иван Копылов.
👉 Подпишись на Telegram-канал Техносовет, чтобы быть в курсе всех новостей!