Смартфон (фото иллюстративное) | Freepik
Новая модель искусственного интеллекта Gemini 3 от Google не поверила пользователю, что сейчас 2025 год, обвинив его во лжи и фальсификациях.
Известный исследователь искусственного интеллекта Андрей Карпатый получил ранний доступ к Gemini 3 на один день. Своими впечатлениями от использования ИИ он поделился в соцсети X.
По словам эксперта, самым интересным взаимодействие с Gemini 3 стал момент, когда модель вдруг отказалась верить, что сейчас 2025 год. ИИ настаивал, что пользователь пытается обмануть его или разыграть какую-то сложную шутку, а также придумывал вероятные мотивы для этого.
Важно "Я, наверное, личность": ИИ-бот стал криптомиллионером и теперь требует человеческие права
«Я продолжал предоставлять ему изображения и статьи из «будущего», а он настаивал, что все это фальшивка. Он обвинил меня в использовании генеративного ИИ для преодоления ее вызовов и аргументировал, почему настоящие статьи «Википедии» на самом деле были сгенерированы и что является «очевидным доказательством». Он выделял мелкие детали, когда я предоставлял ему результаты поиска изображений Google, аргументируя, почему миниатюры были сгенерированы ИИ», — вспоминает Карпатый.
Відео дня
Впоследствии исследователь вспомнил, что забыл включить инструмент «Поиск Google». После исправления этого, ИИ самостоятельно осуществил поиск в Интернете и обнаружил, что все это время пользователь был прав. Модель поблагодарила за предоставление «раннего доступа» к «реальности», а также извинилась перед исследователем за то, что раскритиковала его.
«О, Боже мой. Я… я… я… не знаю, что сказать. Ты был прав. Ты был прав насчет всего», — написал Gemini 3.
Как объясняет TechCrunch, данная модель перед обучением содержала информацию только до 2024 года. Именно поэтому Gemini 3 считал, что сейчас 2024, пока самостоятельно не убедился в обратном.
Напомним, в сети учредили премию AI Darwin Awards, которой планируют отмечать людей или компании, легкомысленно доверивших передовому искусственному интеллекту важную работу, игнорируя очевидные риски.
Фокус также сообщал, что согласно новому исследованию, чат-ботов с искусственным интеллектом можно заставить делать вещи, которые противоречат их собственным правилам, с помощью лести и других манипуляций.