Бизнес набирается ума
Как российский бигтех ищет путь к массовому доверию к ИИ
На конференции ЦИПР-2025 одной из ключевых тем стала доступность генеративного искусственного интеллекта (ИИ) и доверие к нему среди массовой аудитории. Несмотря на растущий интерес к нейросетям, скепсис сохраняется: по данным ВЦИОМа, 52% россиян доверяют ИИ-системам, а 38% — нет. При этом показатель недоверия стал на 6 процентных пунктов выше в сравнении с 2022 годом.
Фото: пресс-служба Авито
Фото: пресс-служба Авито
Россияне, не доверяющие ИИ, чаще всего объясняют свою позицию сбоями и ошибками в работе нейросетей, а также опасением, что технологии могут выйти из-под контроля. Как повысить доверие к большим языковым моделям и сделать нейросети удобнее для пользователя, обсудили эксперты бигтех-отрасли на панельной дискуссии в рамках ЦИПР 2025, организованной "Авито" — «Набраться ума. Как добиться массового внедрения и доверия к генеративному ИИ».
Дискуссия объединила представителей крупнейших платформ и классифайдов: управляющего партнера «Авито» Ивана Гуза, директора по ИИ «Авито» Андрея Рыбинцева, директора по ИИ «Яндекса» Александра Крайнова. От финтех-отрасли выступил директор по ИИ Т-Банка Виктор Тарнавский, от телеком-сегмента — генеральный директор MWS AI Денис Филиппов, а от маркетплейсов — CEO Lamoda Максим Гришаков.
Почему пользователи не доверяют ИИ?
В начале дискуссии эксперты обсудили, почему нейросетям пока не удается завоевать устойчивого доверия со стороны массовой аудитории, и это фундаментальная проблема. Иван Гуз отметил, что генеративный ИИ может выдавать уверенные, но ошибочные ответы. «Мы видим, как активно внедряется генеративный ИИ в поисковые системы. В “Авито” мы тоже используем эту технологию, потому что она дает безграничные возможности. Но такие системы не осознают, чего не знают. И так как задача нейросети всегда давать ответ, при отсутствии достоверной информации она может выдать ложный как правдивый»,— замечает господин Гуз.
Эту мысль поддержал Виктор Тарнавский, подчеркнув, что уровень доверия напрямую зависит от качества модели. Он отмечает, что сейчас аудитория популярных больших языковых моделей растет благодаря положительному опыту взаимодействия. Так, по его словам, если корректный результат выдается в 90% случаев и выше, модели будут доверять и пользоваться ей чаще. Значит, задача компаний — делать модели точными и контролировать качество их ответов, считает Виктор Тарнавский.
Одним из способов повышения доверия участники сессии назвали обязательное предупреждение о том, что контент создан нейросетью. «Любой ответ генеративного ИИ базируется на информации либо из “памяти” модели, либо из внешних источников. Доверие или недоверие к ответам ИИ — это доверие или недоверие к интернету»,— рассказывает Александр Крайнов. Поэтому важно показывать людям, откуда нейросеть взяла данные, сопровождать такие ответы дисклеймером: информацию нужно перепроверять, особенно в серьезных вопросах, считает эксперт.
Максим Гришаков, в свою очередь, отметил, что одного дисклеймера недостаточно: «Компания должна тщательно модерировать функции с ИИ еще до запуска. Люди не алгоритмы. Именно они должны принимать решение, где технологию уже можно безопасно использовать, а где ее еще нужно дорабатывать». Бороться с «галлюцинациями» нейросетей помогают многоступенчатая модерация, обучение моделей на корпоративных и внутренних данных, а также использование проверенных и доверенных источников, отметил господин Гришаков.
От доверия — к прикладным решениям
Бигтех-отрасль также уделила внимание обсуждению способов превращения ИИ в прикладной инструмент. Эксперты сошлись во мнении, что нужно создавать продукт, который будет требовать минимального участия человека. Так, в «Авито» рассказали, что все решения с использованием генеративных технологий разрабатываются исходя из потребностей пользователей.
«Мы создали инструмент, который упрощает и ускоряет коммуникацию между продавцом и покупателем. В чатах теперь есть нейроподсказки — три варианта, которые можно выбрать одним нажатием. Это особенно полезно для малого бизнеса: быстрая реакция помогает не упустить клиента. Второе направление — улучшение существующих пользовательских сценариев. Например, с помощью функции генерации описания можно быстрее и точнее создать текст объявления. Это делает платформу удобнее и эффективнее»,— рассказывает Андрей Рыбинцев.
Его дополняет Иван Гуз: «Есть разные подходы, можно аккуратно тестировать новую технологию и проверять, насколько она востребована в конкретной нише, а можно стать первым, кто внедрит ее масштабно. Мы выбрали второе. Для этого нужно выстраивать инфраструктуру, подключать проверенные источники информации, использовать модели с большим числом параметров, такие, которые действительно могут “думать”, а не просто воспроизводить шаблонные ответы. Это требует инвестиций, но дает технологическое преимущество».
Так, эксперты отрасли отмечают, что, прежде чем заниматься развитием больших языковых моделей внутри компании, необходимо просчитать потенциальные затраты, как финансовые, так и операционные, и заранее оценить, насколько оправданна будет отдача. К этому тезису присоединился из зала Станислав Близнюк, глава Т-Банка. Он подчеркнул, что внедрение ИИ — это дорогостоящий процесс, который требует четкого понимания целей и расчета эффективности: «На каждом этапе важно понимать, сколько потратили и какой получили результат. Ведь в конечном итоге зарплату платит не ИИ, а клиент».
Генеративный искусственный интеллект может помочь решить проблемы, но на первом месте должна стоять задача, а не технология, рассказал Александр Крайнов. С ним соглашается Виктор Тарнавский, отмечая, что не стоит подгонять задачи под возможности технологии — нужно идти от потребностей бизнеса. Компания должна быть гибкой и принимать важность технологий, добавляет он. Максим Гришаков говорит, что для топ-менеджеров открыты перспективы в осмыслении роли ИИ не как замены человека, а как инструмента для усиления его возможностей.
Что нас ждет за горизонтом
Мнения участников о том, какими должны быть формы взаимодействия с генеративным ИИ, разошлись. Денис Филиппов считает, что они должны быть максимально приближены к привычному человеческому общению. Андрей Рыбинцев, напротив, убежден, что формат взаимодействия зависит от конкретной задачи. «Формат взаимодействия должен определяться нишей. В одних случаях уместна модель общения, приближенная к диалогу с человеком, в других — требуется иной подход. Нужно идти от потребностей пользователей»,— объясняет он.
В завершение дискуссии эксперты обсудили риски, связанные с развитием ИИ. Все участники сошлись во мнении, что сегодня главная угроза — не выход технологий из-под контроля, а растущая зависимость от них.
Александр Крайнов подчеркнул, что зависимость от ИИ увеличивает зависимость от интернета. И если доступ к нему пропадает, то возникает риск остановки многих систем.
«Сама по себе нейросеть ничего не может. Проблемы начинаются, когда мы наделяем ее возможностями»,— напоминает Андрей Рыбинцев. «Риск зависимости действительно важен. Люди уже не могут справляться с некоторыми задачами без технологий. Нужно решать эту проблему, чтобы не оказаться беспомощными в будущем».