غزال زیاری: گری مارکوس، استاد بازنشسته دانشگاه نیویورک صدایی پیشرو در هوش مصنوعی است که بیشتر به خاطر چالشهایش با هوش مصنوعی معاصر شناخته میشود. او یک دانشمند و نویسندهای پرطرفدار است که درعینحال بنیانگذار و مدیرعامل Geometric.AI (یک شرکت یادگیری ماشینی که توسط Uber خریداریشده) نیز هست.
مارکوس در بررسی شرایط کنونی دنیای هوش مصنوعی گفت: «حدود نیم تریلیون دلار روی فرضیهای سرمایهگذاری شده که از مدتها پیش استدلال میکردم که احتمال موفقیتش کم است. این ایده (که گاهی به شکل غیررسمی از آن بهعنوان فرضیه مقیاس بندی یاد میشود) بدین ترتیب است که ما میتوانیم بهراحتی و با افزودن بیشتر دادهها و پردازندههای گرافیکی به “هوش عمومی مصنوعی” برسیم. شعار پشت این جنبش این بود: “مقیاس تمام چیزی است که نیاز دارید”. در ماه می سال ۲۰۲۲، ناندو دی فریتاس، محقق DeepMind، آنقدر نسبت به این پروژه اطمینان داشت که دراینباره نوشته بود: «حالا همهچیز در مورد مقیاس است! بازی تمام شد! بحث بزرگتر کردن، ایمنتر کردن و کارآمد کردن این مدلهاست.»»
نکته جالب اینجاست که تقریباً تمام صنعت مولد هوش مصنوعی بر اساس این فرضیه ساختهشده و پروژههایی ازجمله سرمایهگذاری مشترک OpenAI/Oracle/Softbank Stargate که حدوداً نیم تریلیون دلار دیگر هزینه دربرداشته نیز عمدتاً بر این فرض استوار است.
دریکی از تفسیرهای منتشرشده به این نکته اشارهشده که ایده پشت فرضیه مقیاس بندی این بود که “موهبت مقیاس نشان میدهد که صرفاً تزریق قدرت محاسباتی بیشتر در آموزش مدلهای هوش مصنوعی، منجر به تولید ابرهوش ماشینی میشود که قادر است تا هر انسانی و کل تمدن بشری را در تمام کارهای شناختی شکست دهد.”
پارسال هم ایلان ماسک در پیشبینیاش درباره هوش مصنوعی گفته بود: «احتمالاً در اواخر سال آینده (منظورش اواخر سال ۲۰۲۵ میلادی بود)، هوش مصنوعی از هر انسانی باهوشتر خواهد بود.»
بیشتر هیجانها برای این مقیاسبندی، از مقاله سال ۲۰۲۰ OpenAI به نام “قوانین مقیاسگذاری برای مدلهای زبان عصبی” سرچشمه گرفت. در آن مقاله ادعاشده بود که معادلات سادهای بر عملکرد حاکم است و قانون قدرت با اندازه مدل، اندازه مجموعه دادهها و مقدار محاسباتی که برای آموزش استفاده میشود، در مقایسه با برخی از روندها بیش از هفت برابر بزرگتر است و حتی برای مدتی هم به نظر میرسید که درست باشد.
اما من میدانستم که این نمیتواند برای همیشه ادامه بیابد و وقتی این را گفتم، خیلیها بهشدت از من عصبانی شدند. من اولین بار نگرانیام را در مقالهای به نام “یادگیری عمیق، مثل برخورد با دیوار است” که در مارس ۲۰۲۲ منتشر شد، مطرح کردم.
در بحث مقیاس بندی چندین حفره جدی مشاهده میشود؛ در ابتدا، اقداماتی که مقیاسپذیر شدهاند و چیزی که ما بهشدت به آن نیاز داریم، در آن نشان نداده نشده است: درک واقعی.
بسیاری از دستاندرکاران، مدتهاست میدانند که یکی از بزرگترین مشکلات در تحقیقات هوش مصنوعی، تستهایی است که برای ارزیابی سیستمهای هوش مصنوعی مورداستفاده قرار میگیرند. چت رباتهایی که پارانوئید یا غیرهمکار عمل میکنند، بهراحتی میتوانند آزمایش معروف تورینگ که با هدف اندازهگیری هوش واقعی انجام میشود را به بازی بگیرند. مقیاس بندی معیارهایی که کاپلان و همکارانش در OpenAI آن را زیر نظر داشتند درباره پیشبینی کلمات در یک جمله، به معنای درک عمیقی نیست که هوش مصنوعی واقعی به آن نیاز دارد.
علاوه بر این، قوانین مقیاسپذیری، مثل دیگر قوانین جهانی ازجمله گرانش نیستند؛ بلکه این قوانین درواقع مشاهداتی هستند که ممکن است برای همیشه پابرجا نباشند، چیزی شبیه به قانون مور! (روندی در تولید تراشههای رایانهای که دههها ادامه داشت و یک دهه پیش شروع به کند شدن کرد).
اما تقریباً تمام نخبگان یادگیری عمیق، با شور و صدای زیادی مخالف این ایده بودند و سام آلتمن، گرگ براکمن، ایلان ماسک، یان لیکان و بسیاری دیگر حتی علناً مرا مسخره کردند.
یان لیکان، رئیس هوش مصنوعی متا در واکنش به این بحث نوشت: «هوش مصنوعی، نهتنها “به دیوار نمیخورد”، بلکه حتی خودروهای مجهز به کمک رانندگی با هوش مصنوعی هم به دیوار یا چیز دیگری برخورد نمیکنند.» سام آلتمن، مدیرعامل OpenAI نوشت: «کاش من اعتمادبهنفس یک فرد معمولی ولی شکاک نسبت به یادگیری عمیق را داشتم.» حتی در ژوئن ۲۰۲۴ ماسک یک الگوی رفتاری را منتشر کرد که در آن این ایده که مقیاس یادگیری عمیق به دیوار برخورد میکند را به تمسخر گرفت.
تا چند ماه پیش، ایده مقیاسپذیری همچنان با صدای بلند و قوی مطرح میشد؛ کوین اسکات، مدیر ارشد فناوری مایکروسافت در سخنرانیاش دراینباره گفته بود: «هنوز نهنگ نیامده و در ماههای اخیر اوضاع بیسروصدا تغییر کرده. تفکر گروهی همیشه درست نیست.»
اولین سرنخهایی که نشان داد که مقیاسگذاری خالص دادهها و محاسبات ممکن است به دیوار برخورد کنند، از نشتهای صنعتی از افرادی مانند مارک آندرسن سرمایهگذار مشهور شروع شد. او در نوامبر ۲۰۲۴ به این نکته اشاره کرد که مدلهای فعلی هر یک بهنوعی، به سقف یکسانی در تواناییها میرسند.
در ماه دسامبر هم ساتیا نادلا، مدیرعامل مایکروسافت، بسیاری از موضوعاتی که من در سال ۲۰۲۲ به آن اشارهکرده بودم را تکرار کرد و گفت: «در هفتههای اخیر بحثهای زیادی دراینباره که آیا با قوانین مقیاسپذیری به دیوار برخورد کردهایم یا خیر مطرحشده. آیا این وضع ادامه خواهد داشت؟ درنهایت باید این را به یاد بسپاریم که اینها قوانین فیزیکی نیستند و فقط مشاهداتی تجربی هستند که مثل قانون مور، برای مدتی طولانی صادقنند و بنابراین خوب است که دراینباره کمی شک و تردید داشته باشیم.»
سنگرهایی که در هم میشکنند
در روزهای گذشته ترکهای متعددی روی این ساختمان پربحث و ابهام مشاهده شد که در ابتدا کوچکتر و تدریجاً بزرگ و بزرگتر شدند:
Klarna، تقویتکننده هوش مصنوعی سنگین از موضع خود درزمینهٔ هوش مصنوعی استفاده کرد. آنها پیشازاین تصور میکردند که مقیاس بندی باعث میشود تا همهچیز کار کند ولی حالا به نظر میرسد نظرشان تغییر کرده است.
هوش مصنوعی انسانی Pin لغو شد و شرکتش به فروش رسید و بنیانگذارانش مجبور شدند از چشمانداز باشکوهی که در TED Talk در مورد گجت های جدید مبتنی بر هوش مصنوعی ارائه کرده بودند، عقبنشینی کنند.
OpenAI بهطور ضمنی اعلام کرد که آنها هنوز GPT-۵ را ندارند و صرفاً با ساختن خوشههای عظیم و جمعآوری دادههای آموزشی بیشتر به آن نخواهند رسید.
ریاضیدانی به نام دانیل لیت، توهمات عظیمی را در تحقیقات عمیق OpenAI افشا کرد و درنهایت و مهمتر از همه، گرچه ایلان ماسک یادآوری کرد که Grok ۳، با ۱۵ برابر قدرت محاسبه در مقایسه با Grok ۲، هوشمندترین هوش مصنوعی روی زمین خواهد بود، اما نتیجه چیز دیگری بوود.
جهان بهسرعت متوجه شد که Grok ۳ هنوز از همان غیرقابل اطمینان بودنی که مدلهای قبلی را دچار مشکل کرده بود رنج میبرد. آندری کارپاتی، کارشناس معروف ML اعلام کرد که Grok ۳ گهگاهی در اصولی در ریاضی و املا گاف میدهد و من هم در آزمایشهای خودم، سریعاً به طیف وسیعی از خطاها برخوردم.
مثلاً Grok ۳ با اطمینان به من گفت که در روز دهم فوریه، زلزلهای به بزرگی ۵.۶ ریشتر در مونتانا رخداده؛ اما چنین زلزلهای رخ نداده بود و درعینحال Grok ۳، درک بصری بسیار ضعیفی داشت و حتی نمیتوانست قطعات اصلی دوچرخه را بهدرستی نام ببرد.
نادلا در سخنرانیاش در ماه دسامبر، به محاسبه زمان آزمون اشاره کرد که در آن، سیستمها بهعنوان چیز بزرگ بعدی، زمان اضافی برای استدلال دارند و البته تا حدودی حق با اوست. این چیز بزرگ بعدی است، چیز جدیدی که باید سعی کرد مقیاس سازی کرد؛ چراکه صرفاً مقیاسگذاری محاسبات و دادهها دیگر آن بازده مطلوب قبل را ندارند. افزودن زمان محاسباتی بیشتر و بیشتر، حداقل در مورد برخی از مشکلات کارساز خواهد بود.
اما محاسبات زمان آزمایش احتمالاً برای نجات شرکت نابسامان هوش مصنوعی مولد کافی نیست و میتوان نشانههای متعددی از این را مشاهده کرد.
اول کسانی که در حال انجام محاسبات آزمون زمان هستند، همان نوع معیارها را برای ریاضی و کد نویسی نمایش میدهند. این احتمالاً به این دلیل است که در آن حوزههای خاص، امکان تولید مقادیر عظیمی از دادههای تأییدشده وجود دارد. این قطعاً برای آن دامنهها خوب است اما بعید است در مواجهه با پیچیدگیهای دنیای واقعی باز هم بهخوبی کار کند.
طبق نمونههای دانیل لیت و من که هر دو با سیستمهای محاسبات زمان آزمایش ایجادشدهاند، به نظر میرسد که توهماتی مثل خبر نادرست زلزله، حتی در جدیدترین سیستمها نیز به چشم میخورد.
باوجودی که DeepSeek، هزینههای آموزش این سیستمهای جدید را کاهش داده، اما عملکرد آنها هنوز هم گران است و به همین دلیل هم هست که شرکتهایی مثل OpenAI استفاده از آنها را محدود میکنند.
اشتباهاتی که هنوز هم تکرار میشوند
مشتریان وقتی متوجه این موضوع شوند و ببینند که حتی باوجود هزینههای بیشتر، اشتباهات همچنان رخ میدهد، احتمالاً ناامید خواهند شد. یکی از مشتریان خشمگین اخیراً نوشت که GPT-۴o Pro که شامل دسترسی به محاسبه زمان آزمایش است، بهطور مداوم عملکرد ضعیفی داشته و از مشکلاتی مثل ضعیف شدن شدید حافظه و توهمات و پاسخهای غیرقابلاعتماد نام برد.
واقعیت این است که مقیاس بندی خالص جواب نداده و من تنها کسی نیستم که اینگونه فکر میکنم. گروه برجسته پردازش زبان طبیعی استنفورد نیز به نتایج مشابهی رسیده و طبق گفته آنها، نقشه راه OpenAI اخیر آلتمن، اعترافی نهایی بود که استراتژی ۲۰۲۳ OpenAI، Anthropic و غیره صرفاً افزایش اندازه مدل، دادهها، محاسبات و دلارهای خرج شده که ما را به هوش مصنوعی عمومی و ابرهوش مصنوعی (AGI/ASI) میرساند، دیگر کار نمیکند.
سرمایهگذاریای که بیثمر بود
بهطور خلاصه، سرمایهگذاری نیم تریلیون دلاری بر روی یک فرض نادرست بوده و به نظر میرسد در شرایط فعلی، بودجه بسیار بیشتری در همین جهت صرف میشود که متأسفانه بعید است که هیچیک از اینها پایدار باشند.
بیشتر پول بر این فرض سرمایهگذاری شده که یکی از این شرکتها به هوش مصنوعی دست یابد که حداقل در کوتاهمدت بعید به نظر میرسد. بااینحال، تقریباً همه آنها از شرکتهای آمریکایی OpenAI، Grok و Anthropic گرفته تا شرکتهای چینی DeepSeek و ByteDance، اساساً از همان فرمول پیروی میکنند و پیشرفتهای ملایمی دارند ولی قادر به حل مشکلات اساسی (ازجمله غیرقابلاعتماد بودن، توهمها و گاهاً استدلالهای پوچ) که از ابتدا گریبان گیر LLMها بود، نیستند. دلیل اینکه ما شاهد جنگ قیمت هستیم این است که همه اساساً همان دستورالعمل را میدانند، اما کسی در عمل نتوانسته یک جهش کوانتومی واقعی رو به جلو ایجاد کند.
با توجه به جنگهای دوگانه قیمتها و عدم اطمینان، بسیاری از شرکتهای هوش مصنوعی احتمالاً شاهد بازگشت مبالغی که سرمایهگذاری کردهاند نخواهند بود و درنتیجه احتمالاً بهزودی یک اصلاح اساسی رخ خواهد داد.
البته سرمایهگذاران و کشورها باید به سرمایهگذاری روی هوش مصنوعی ادامه دهند، اما نه در موارد مشابه. جایزه واقعی برای سرمایهگذاران و کشورهایی خواهد بود که مایل به سرمایهگذاری بلندمدت در شرکتهایی باشند که مایلاند تا خارج از چارچوب فکر کنند. مقیاس بندی ممکن است بخشی از راهحل باشد، اما اگر بخواهیم یک هوش مصنوعی قابلاعتماد ایجاد کنیم، احتمالاً به ایدههای واقعاً جدیدی نیاز خواهیم داشت.
منبع: fortune
۲۲۷۲۲۷