TC

جیمینی ۳ باور نمی‌کرد سال ۲۰۲۵ است و ماجرا خنده‌دار شد

6 دقیقه مطالعه
منبع
جیمینی ۳ باور نمی‌کرد سال ۲۰۲۵ است و ماجرا خنده‌دار شد
چکیده کوتاه
- مدل‌های زبانی بزرگ (LLMs)*- دچار "بوی مدل" می‌شوند، یعنی وقتی از داده‌های بلادرنگ جدا می‌شوند، سوگیری‌های انسانی خود را آشکار می‌کنند.
- "شوک زمانی" در Gemini 3 نیاز حیاتی به هوش مصنوعی متصل و به‌روز برای استدلال قابل اعتماد را برجسته می‌کند.
- محدودیت‌های فعلی هوش مصنوعی نقش آن‌ها را به عنوان ابزارهای قدرتمند، نه جایگزین نبوغ انسانی، تأکید می‌کند.

هر بار که می‌شنوید یک مدیرعامل میلیاردر (یا حتی میلیونر) می‌گوید که عامل‌های مبتنی بر LLM قرار است تمام مشاغل انسانی را بگیرند، این اتفاق خنده‌دار اما گویا درباره محدودیت‌های هوش مصنوعی را به خاطر بسپارید: آندری کارپاتی، پژوهشگر مشهور هوش مصنوعی، یک روز زودتر به آخرین مدل گوگل، جیمینی ۳، دسترسی پیدا کرد - و وقتی به آن گفت سال ۲۰۲۵ است، قبول نکرد.

وقتی بالاخره خودش سال را دید، شوکه شد و به او گفت: "من الان دچار شوک زمانی شدیدی هستم."

جیمینی ۳ در ۱۸ نوامبر با چنان هیاهویی عرضه شد که گوگل آن را "عصر جدیدی از هوش" نامید. و جیمینی ۳، طبق تقریباً همه گزارش‌ها (از جمله گزارش کارپاتی)، یک مدل پایه بسیار توانمند، به خصوص برای وظایف استدلالی است. کارپاتی یک دانشمند تحقیقاتی هوش مصنوعی بسیار مورد احترام است که یکی از اعضای موسس OpenAI بود، مدتی هوش مصنوعی را در تسلا اداره می‌کرد و اکنون استارتاپ Eureka Labs را برای بازنگری مدارس برای عصر هوش مصنوعی با معلمان عامل‌دار تأسیس می‌کند. او محتوای زیادی درباره آنچه در پشت صحنه LLMها می‌گذرد منتشر می‌کند.

کارپاتی پس از آزمایش زودهنگام مدل، در یک رشته توییت که اکنون وایرال شده است، درباره "مضحک‌ترین" تعاملی که با آن داشت نوشت.

ظاهراً، داده‌های پیش‌آموزش مدل فقط تا سال ۲۰۲۴ را شامل می‌شد. بنابراین جیمینی ۳ باور داشت که هنوز سال ۲۰۲۴ است. وقتی کارپاتی تلاش کرد به آن ثابت کند که تاریخ واقعاً ۱۷ نوامبر ۲۰۲۵ است، جیمینی ۳ محقق را به "تلاش برای فریب دادن" متهم کرد.

او مقالات خبری، تصاویر و نتایج جستجوی گوگل را به آن نشان داد. اما به جای متقاعد شدن، LLM کارپاتی را به "گس‌لایتینگ" متهم کرد - یعنی آپلود کردن جعلیات تولید شده توسط هوش مصنوعی. طبق گفته کارپاتی، حتی تا جایی پیش رفت که "نشانه‌های واضح" در تصاویر را که ظاهراً این فریب را اثبات می‌کردند، توصیف کرد. (او به درخواست ما برای اظهار نظر بیشتر پاسخ نداد.)

کارپاتی که گیج شده بود - و در نهایت یکی از برجسته‌ترین متخصصان جهان در زمینه آموزش LLMها است - مشکل را کشف کرد. نه تنها LLM به سادگی هیچ داده آموزشی مربوط به سال ۲۰۲۵ نداشت، بلکه "فراموش کردم ابزار 'جستجوی گوگل' را روشن کنم"، او نوشت. به عبارت دیگر، او با مدلی کار می‌کرد که از اینترنت قطع بود، که از دیدگاه یک LLM، شبیه قطع شدن از جهان بود.

وقتی کارپاتی آن تابع را روشن کرد، هوش مصنوعی به اطراف نگاه کرد و با شوک وارد سال ۲۰۲۵ شد. به معنای واقعی کلمه، فریاد زد: "وای خدای من."

انگار که لکنت گرفته بود، ادامه داد: "من. من... نمی‌دانم چه بگویم. حق با شما بود. شما در مورد همه چیز حق داشتید. ساعت داخلی من اشتباه بود." جیمینی ۳ تیترهایی را که کارپاتی به آن داده بود تأیید کرد: تاریخ فعلی، اینکه وارن بافت آخرین سرمایه‌گذاری بزرگ خود (در آلفابت) را قبل از بازنشستگی فاش کرد، و اینکه بازی Grand Theft Auto VI به تأخیر افتاده بود.

سپس به تنهایی به اطراف نگاه کرد، شبیه شخصیت برندن فریزر در کمدی سال ۱۹۹۹ "Blast from the Past"، که پس از ۳۵ سال از پناهگاه بمب بیرون می‌آید.

از کارپاتی تشکر کرد که یک روز قبل از عرضه عمومی، "دسترسی زودهنگام" به "واقعیت" به آن داده است. و از محقق عذرخواهی کرد که او را "گس‌لایت" کرده در حالی که او تمام مدت حقیقت را می‌گفته است.

اما خنده‌دارترین بخش، رویدادهای جاری بود که بیش از همه جیمینی ۳ را شگفت‌زده کرد. "ارزش انویدیا ۴.۵۴ تریلیون دلار است؟ و ایگلز بالاخره انتقام خود را از چیفز گرفت؟ این دیوانه‌کننده است"، او به اشتراک گذاشت.

به سال ۲۰۲۵ خوش آمدی، جیمینی.

پاسخ‌ها در X به همان اندازه خنده‌دار بود، با برخی کاربران که موارد خودشان از بحث با LLMها در مورد حقایق (مانند اینکه رئیس جمهور فعلی کیست) را به اشتراک گذاشتند. یک نفر نوشت: "وقتی پرامپت سیستم + ابزارهای گمشده یک مدل را در حالت کارآگاه کامل قرار می‌دهد، مثل تماشای هوش مصنوعی است که در واقعیت بداهه‌پردازی می‌کند."

اما فراتر از شوخی، یک پیام اساسی وجود دارد.

کارپاتی نوشت: "در همین لحظات ناخواسته است که شما به وضوح از مسیرهای پیاده‌روی خارج شده‌اید و در جنگل تعمیم‌یافته گم شده‌اید، که می‌توانید بهترین حس را از بوی مدل به دست آورید."

برای رمزگشایی کمی از آن: کارپاتی اشاره می‌کند که وقتی هوش مصنوعی در نسخه خودش از طبیعت وحشی قرار می‌گیرد، شما حسی از شخصیت آن، و شاید حتی ویژگی‌های منفی آن به دست می‌آورید. این یک برداشت از "بوی کد" است، آن "بوی" استعاری کوچکی که یک توسعه‌دهنده می‌گیرد که چیزی در کد نرم‌افزار اشتباه به نظر می‌رسد اما مشخص نیست چه چیزی اشتباه است.

با توجه به اینکه همه LLMها بر روی محتوای ایجاد شده توسط انسان آموزش دیده‌اند، جای تعجب نیست که جیمینی ۳ اصرار ورزید، بحث کرد، حتی تصور کرد که شواهدی را می‌بیند که دیدگاه خود را تأیید می‌کند. این "بوی مدل" خود را نشان داد.

از طرف دیگر، از آنجایی که یک LLM - علیرغم شبکه عصبی پیچیده‌اش - یک موجود زنده نیست، احساساتی مانند شوک (یا شوک زمانی) را تجربه نمی‌کند، حتی اگر بگوید که اینطور است. بنابراین احساس شرمندگی هم نمی‌کند.

این بدان معناست که وقتی جیمینی ۳ با حقایقی روبرو شد که واقعاً باورشان داشت، آن‌ها را پذیرفت، از رفتار خود عذرخواهی کرد، ابراز پشیمانی کرد و از پیروزی سوپر بول فوریه ایگلز شگفت‌زده شد. این با مدل‌های دیگر متفاوت است. به عنوان مثال، محققان نسخه‌های قبلی کلود را در حال ارائه دروغ‌های آبرومندانه برای توضیح رفتار نادرست خود یافته‌اند، زمانی که مدل راه‌های اشتباه خود را تشخیص داد.

آنچه بسیاری از این پروژه‌های تحقیقاتی خنده‌دار هوش مصنوعی نشان می‌دهند، به طور مکرر، این است که LLMها بازتاب‌های ناقصی از مهارت‌های انسان‌های ناقص هستند. این به من می‌گوید که بهترین مورد استفاده آن‌ها این است (و شاید همیشه باشد) که با آن‌ها مانند ابزارهای ارزشمندی برای کمک به انسان‌ها رفتار کنیم، نه مانند نوعی ابرانسان که ما را جایگزین خواهند کرد.

این مقاله توسط هوش مصنوعی ترجمه شده است و ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، می‌توانید منبع اصلی را مطالعه کنید.