اخبار هوش مصنوعی

ناکامی‌های بزرگ هوش مصنوعی که کسی درموردش صحبت نمی‌کند

غزال زیاری: گری مارکوس، استاد بازنشسته دانشگاه نیویورک صدایی پیشرو در هوش مصنوعی است که بیشتر به خاطر چالش‌هایش با هوش مصنوعی معاصر شناخته می‌شود. او یک دانشمند و نویسنده‌ای پرطرفدار است که درعین‌حال بنیان‌گذار و مدیرعامل Geometric.AI (یک شرکت یادگیری ماشینی که توسط Uber خریداری‌شده) نیز هست.

مارکوس در بررسی شرایط کنونی دنیای هوش مصنوعی گفت: «حدود نیم تریلیون دلار روی فرضیه‌ای سرمایه‌گذاری شده که از مدت‌ها پیش استدلال می‌کردم که احتمال موفقیتش کم است. این ایده (که گاهی به شکل غیررسمی از آن به‌عنوان فرضیه مقیاس بندی یاد می‌شود) بدین ترتیب است که ما می‌توانیم به‌راحتی و با افزودن بیشتر داده‌ها و پردازنده‌های گرافیکی به “هوش عمومی مصنوعی” برسیم. شعار پشت این جنبش این بود: “مقیاس تمام چیزی است که نیاز دارید”. در ماه می سال ۲۰۲۲، ناندو دی فریتاس، محقق DeepMind، آن‌قدر نسبت به این پروژه اطمینان داشت که دراین‌باره نوشته بود: «حالا همه‌چیز در مورد مقیاس است! بازی تمام شد! بحث بزرگ‌تر کردن، ایمن‌تر کردن و کارآمد کردن این مدل‌هاست.»»

نکته جالب اینجاست که تقریباً تمام صنعت مولد هوش مصنوعی بر اساس این فرضیه ساخته‌شده و پروژه‌هایی ازجمله سرمایه‌گذاری مشترک OpenAI/Oracle/Softbank Stargate که حدوداً نیم تریلیون دلار دیگر هزینه دربرداشته نیز عمدتاً بر این فرض استوار است.

ناکامی‌های بزرگ هوش مصنوعی که کسی درموردش صحبت نمی‌کند

دریکی از تفسیرهای منتشرشده به این نکته اشاره‌شده که ایده پشت فرضیه مقیاس بندی این بود که “موهبت مقیاس نشان می‌دهد که صرفاً تزریق قدرت محاسباتی بیشتر در آموزش مدل‌های هوش مصنوعی، منجر به تولید ابرهوش ماشینی می‌شود که قادر است تا هر انسانی و کل تمدن بشری را در تمام کارهای شناختی شکست دهد.”

پارسال هم ایلان ماسک در پیش‌بینی‌اش درباره هوش مصنوعی گفته بود: «احتمالاً در اواخر سال آینده (منظورش اواخر سال ۲۰۲۵ میلادی بود)، هوش مصنوعی از هر انسانی باهوش‌تر خواهد بود.»

بیشتر هیجان‌ها برای این مقیاس‌بندی، از مقاله سال ۲۰۲۰ OpenAI به نام “قوانین مقیاس‌گذاری برای مدل‌های زبان عصبی” سرچشمه گرفت. در آن مقاله ادعاشده بود که معادلات ساده‌ای بر عملکرد حاکم است و قانون قدرت با اندازه مدل، اندازه مجموعه داده‌ها و مقدار محاسباتی که برای آموزش استفاده می‌شود، در مقایسه با برخی از روندها بیش از هفت برابر بزرگ‌تر است و حتی برای مدتی هم به نظر می‌رسید که درست باشد.

اما من می‌دانستم که این نمی‌تواند برای همیشه ادامه بیابد و وقتی این را گفتم، خیلی‌ها به‌شدت از من عصبانی شدند. من اولین بار نگرانی‌ام را در مقاله‌ای به نام “یادگیری عمیق، مثل برخورد با دیوار است” که در مارس ۲۰۲۲ منتشر شد، مطرح کردم.

در بحث مقیاس بندی چندین حفره جدی مشاهده می‌شود؛ در ابتدا، اقداماتی که مقیاس‌پذیر شده‌اند و چیزی که ما به‌شدت به آن نیاز داریم، در آن نشان نداده نشده است: درک واقعی.

بسیاری از دست‌اندرکاران، مدت‌هاست می‌دانند که یکی از بزرگ‌ترین مشکلات در تحقیقات هوش مصنوعی، تست‌هایی است که برای ارزیابی سیستم‌های هوش مصنوعی مورداستفاده قرار می‌گیرند. چت ربات‌هایی که پارانوئید یا غیرهمکار عمل می‌کنند، به‌راحتی می‌توانند آزمایش معروف تورینگ که با هدف اندازه‌گیری هوش واقعی انجام می‌شود را به بازی بگیرند. مقیاس بندی معیارهایی که کاپلان و همکارانش در OpenAI آن را زیر نظر داشتند درباره پیش‌بینی کلمات در یک جمله، به معنای درک عمیقی نیست که هوش مصنوعی واقعی به آن نیاز دارد.

علاوه بر این، قوانین مقیاس‌پذیری، مثل دیگر قوانین جهانی ازجمله گرانش نیستند؛ بلکه این قوانین درواقع مشاهداتی هستند که ممکن است برای همیشه پابرجا نباشند، چیزی شبیه به قانون مور! (روندی در تولید تراشه‌های رایانه‌ای که دهه‌ها ادامه داشت و یک دهه پیش شروع به کند شدن کرد).

ناکامی‌های بزرگ هوش مصنوعی که کسی درموردش صحبت نمی‌کند

اما تقریباً تمام نخبگان یادگیری عمیق، با شور و صدای زیادی مخالف این ایده بودند و سام آلتمن، گرگ براکمن، ایلان ماسک، یان لیکان و بسیاری دیگر حتی علناً مرا مسخره کردند.

یان لیکان، رئیس هوش مصنوعی متا در واکنش به این بحث نوشت: «هوش مصنوعی، نه‌تنها “به دیوار نمی‌خورد”، بلکه حتی خودروهای مجهز به کمک رانندگی با هوش مصنوعی هم به دیوار یا چیز دیگری برخورد نمی‌کنند.» سام آلتمن، مدیرعامل OpenAI نوشت: «کاش من اعتمادبه‌نفس یک فرد معمولی ولی شکاک نسبت به یادگیری عمیق را داشتم.» حتی در ژوئن ۲۰۲۴ ماسک یک الگوی رفتاری را منتشر کرد که در آن این ایده که مقیاس یادگیری عمیق به دیوار برخورد می‌کند را به تمسخر گرفت.

تا چند ماه پیش، ایده مقیاس‌پذیری همچنان با صدای بلند و قوی مطرح می‌شد؛ کوین اسکات، مدیر ارشد فناوری مایکروسافت در سخنرانی‌اش دراین‌باره گفته بود: «هنوز نهنگ نیامده و در ماه‌های اخیر اوضاع بی‌سروصدا تغییر کرده. تفکر گروهی همیشه درست نیست.»

اولین سرنخ‌هایی که نشان داد که مقیاس‌گذاری خالص داده‌ها و محاسبات ممکن است به دیوار برخورد کنند، از نشت‌های صنعتی از افرادی مانند مارک آندرسن سرمایه‌گذار مشهور شروع شد. او در نوامبر ۲۰۲۴ به این نکته اشاره کرد که مدل‌های فعلی هر یک به‌نوعی، به سقف یکسانی در توانایی‌ها می‌رسند.

در ماه دسامبر هم ساتیا نادلا، مدیرعامل مایکروسافت، بسیاری از موضوعاتی که من در سال ۲۰۲۲ به آن اشاره‌کرده بودم را تکرار کرد و گفت: «در هفته‌های اخیر بحث‌های زیادی دراین‌باره که آیا با قوانین مقیاس‌پذیری به دیوار برخورد کرده‌ایم یا خیر مطرح‌شده. آیا این وضع ادامه خواهد داشت؟ درنهایت باید این را به یاد بسپاریم که این‌ها قوانین فیزیکی نیستند و فقط مشاهداتی تجربی هستند که مثل قانون مور، برای مدتی طولانی صادقنند و بنابراین خوب است که دراین‌باره کمی شک و تردید داشته باشیم.»

سنگرهایی که در هم می‌شکنند

در روزهای گذشته ترک‌های متعددی روی این ساختمان پربحث و ابهام مشاهده شد که در ابتدا کوچک‌تر و تدریجاً بزرگ و بزرگ‌تر شدند:

 Klarna، تقویت‌کننده هوش مصنوعی سنگین از موضع خود درزمینهٔ هوش مصنوعی استفاده کرد. آن‌ها پیش‌ازاین تصور می‌کردند که مقیاس بندی باعث می‌شود تا همه‌چیز کار کند ولی حالا به نظر می‌رسد نظرشان تغییر کرده است.

هوش مصنوعی انسانی Pin لغو شد و شرکتش به فروش رسید و بنیان‌گذارانش مجبور شدند از چشم‌انداز باشکوهی که در TED Talk در مورد گجت های جدید مبتنی بر هوش مصنوعی ارائه کرده بودند، عقب‌نشینی کنند.

 OpenAI به‌طور ضمنی اعلام کرد که آن‌ها هنوز GPT-۵ را ندارند و صرفاً با ساختن خوشه‌های عظیم و جمع‌آوری داده‌های آموزشی بیشتر به آن نخواهند رسید.

ناکامی‌های بزرگ هوش مصنوعی که کسی درموردش صحبت نمی‌کند

ریاضیدانی به نام دانیل لیت، توهمات عظیمی را در تحقیقات عمیق OpenAI افشا کرد و درنهایت و مهم‌تر از همه، گرچه ایلان ماسک یادآوری کرد که Grok ۳، با ۱۵ برابر قدرت محاسبه در مقایسه با Grok ۲، هوشمندترین هوش مصنوعی روی زمین خواهد بود، اما نتیجه چیز دیگری بوود.

جهان به‌سرعت متوجه شد که Grok ۳ هنوز از همان غیرقابل اطمینان بودنی که مدل‌های قبلی را دچار مشکل کرده بود رنج می‌برد. آندری کارپاتی، کارشناس معروف ML اعلام کرد که Grok ۳ گهگاهی در اصولی در ریاضی و املا گاف می‌دهد و من هم در آزمایش‌های خودم، سریعاً به طیف وسیعی از خطاها برخوردم.

مثلاً Grok ۳ با اطمینان به من گفت که در روز دهم فوریه، زلزله‌ای به بزرگی ۵.۶ ریشتر در مونتانا رخ‌داده؛ اما چنین زلزله‌ای رخ نداده بود و درعین‌حال Grok ۳، درک بصری بسیار ضعیفی داشت و حتی نمی‌توانست قطعات اصلی دوچرخه را به‌درستی نام ببرد.

نادلا در سخنرانی‌اش در ماه دسامبر، به محاسبه زمان آزمون اشاره کرد که در آن، سیستم‌ها به‌عنوان چیز بزرگ بعدی، زمان اضافی برای استدلال دارند و البته تا حدودی حق با اوست. این چیز بزرگ بعدی است، چیز جدیدی که باید سعی کرد مقیاس سازی کرد؛ چراکه صرفاً مقیاس‌گذاری محاسبات و داده‌ها دیگر آن بازده مطلوب قبل را ندارند. افزودن زمان محاسباتی بیشتر و بیشتر، حداقل در مورد برخی از مشکلات کارساز خواهد بود.

اما محاسبات زمان آزمایش احتمالاً برای نجات شرکت نابسامان هوش مصنوعی مولد کافی نیست و می‌توان نشانه‌های متعددی از این را مشاهده کرد.

اول کسانی که در حال انجام محاسبات آزمون زمان هستند، همان نوع معیارها را برای ریاضی و کد نویسی نمایش می‌دهند. این احتمالاً  به این دلیل است که در آن حوزه‌های خاص، امکان تولید مقادیر عظیمی از داده‌های تأییدشده وجود دارد. این قطعاً برای آن دامنه‌ها خوب است اما بعید است در مواجهه با پیچیدگی‌های دنیای واقعی باز هم به‌خوبی کار کند.

طبق نمونه‌های دانیل لیت و من که هر دو با سیستم‌های محاسبات زمان آزمایش ایجادشده‌اند، به نظر می‌رسد که توهماتی مثل خبر نادرست زلزله، حتی در جدیدترین سیستم‌ها نیز به چشم می‌خورد.

باوجودی که DeepSeek، هزینه‌های آموزش این سیستم‌های جدید را کاهش داده، اما عملکرد آن‌ها هنوز هم گران است و به همین دلیل هم هست که شرکت‌هایی مثل OpenAI استفاده از آن‌ها را محدود می‌کنند.

اشتباهاتی که هنوز هم تکرار می‌شوند

مشتریان وقتی متوجه این موضوع شوند و ببینند که حتی باوجود هزینه‌های بیشتر، اشتباهات همچنان رخ می‌دهد، احتمالاً ناامید خواهند شد. یکی از مشتریان خشمگین اخیراً نوشت که GPT-۴o Pro که شامل دسترسی به محاسبه زمان آزمایش است، به‌طور مداوم عملکرد ضعیفی داشته و از مشکلاتی مثل ضعیف شدن شدید حافظه و توهمات و پاسخ‌های غیرقابل‌اعتماد نام برد.

واقعیت این است که مقیاس بندی خالص جواب نداده و من تنها کسی نیستم که این‌گونه فکر می‌کنم. گروه برجسته پردازش زبان طبیعی استنفورد نیز به نتایج مشابهی رسیده‌ و طبق گفته آن‌ها، نقشه راه OpenAI اخیر آلتمن، اعترافی نهایی بود که استراتژی ۲۰۲۳ OpenAI، Anthropic و غیره صرفاً افزایش اندازه مدل، داده‌ها، محاسبات و دلارهای خرج شده که ما را به هوش مصنوعی عمومی و ابرهوش مصنوعی (AGI/ASI) می‌رساند، دیگر کار نمی‌کند.

ناکامی‌های بزرگ هوش مصنوعی که کسی درموردش صحبت نمی‌کند

سرمایه‌گذاری‌ای که بی‌ثمر بود

به‌طور خلاصه، سرمایه‌گذاری نیم تریلیون دلاری بر روی یک فرض نادرست بوده و به نظر می‌رسد در شرایط فعلی، بودجه بسیار بیشتری در همین جهت صرف می‌شود که متأسفانه بعید است که هیچ‌یک از این‌ها پایدار باشند.

بیشتر پول بر این فرض سرمایه‌گذاری شده که یکی از این شرکت‌ها به هوش مصنوعی دست یابد که حداقل در کوتاه‌مدت بعید به نظر می‌رسد. بااین‌حال، تقریباً همه آن‌ها از شرکت‌های آمریکایی OpenAI، Grok و Anthropic گرفته تا شرکت‌های چینی DeepSeek و ByteDance، اساساً از همان فرمول پیروی می‌کنند و پیشرفت‌های ملایمی دارند ولی قادر به حل مشکلات اساسی (ازجمله غیرقابل‌اعتماد بودن، توهم‌ها و گاهاً استدلال‌های پوچ) که از ابتدا گریبان گیر LLMها بود، نیستند. دلیل اینکه ما شاهد جنگ قیمت هستیم این است که همه اساساً همان دستورالعمل را می‌دانند، اما کسی در عمل نتوانسته یک جهش کوانتومی واقعی رو به جلو ایجاد کند.

با توجه به جنگ‌های دوگانه قیمت‌ها و عدم اطمینان، بسیاری از شرکت‌های هوش مصنوعی احتمالاً شاهد بازگشت مبالغی که سرمایه‌گذاری کرده‌اند نخواهند بود و درنتیجه احتمالاً به‌زودی یک اصلاح اساسی رخ خواهد داد.

البته سرمایه‌گذاران و کشورها باید به سرمایه‌گذاری روی هوش مصنوعی ادامه دهند، اما نه در موارد مشابه. جایزه واقعی برای سرمایه‌گذاران و کشورهایی خواهد بود که مایل به سرمایه‌گذاری بلندمدت در شرکت‌هایی باشند که مایل‌اند تا خارج از چارچوب فکر کنند. مقیاس بندی ممکن است بخشی از راه‌حل باشد، اما اگر بخواهیم یک هوش مصنوعی قابل‌اعتماد ایجاد کنیم، احتمالاً به ایده‌های واقعاً جدیدی نیاز خواهیم داشت.

منبع: fortune

۲۲۷۲۲۷

منبع خبر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا