سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشه‌های قدرتمند، با هوش مصنوعی لرزه بر تن آمریکا انداخت؟

سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشه‌های قدرتمند، با هوش مصنوعی لرزه بر تن آمریکا انداخت؟ در گفت‌وگویی تحلیلی با حمیدرضا کشاورز، مهندس یادگیری ماشین، ابعاد فنی و زیربنایی هوش مصنوعی بررسی شده است؛ از بحران تراشه و برق تا اهمیت پرامپت‌نویسی و حاکمیت داده. در این گفت‌وگو همچنین به این موضوع پرداخته شده است که آیا ایران می‌تواند در این رقابت جهانی حرفی برای گفتن ..

سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشه‌های قدرتمند، با هوش مصنوعی لرزه بر تن آمریکا انداخت؟

سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشه‌های قدرتمند، با هوش مصنوعی لرزه بر تن آمریکا انداخت؟

در گفت‌وگویی تحلیلی با حمیدرضا کشاورز، مهندس یادگیری ماشین، ابعاد فنی و زیربنایی هوش مصنوعی بررسی شده است؛ از بحران تراشه و برق تا اهمیت پرامپت‌نویسی و حاکمیت داده. در این گفت‌وگو همچنین به این موضوع پرداخته شده است که آیا ایران می‌تواند در این رقابت جهانی حرفی برای گفتن داشته باشند یا خیر.

نگار علی، غزال زیاری- در سال‌های اخیر، هوش مصنوعی به یکی از پیشران‌های اصلی تحولات فناورانه در جهان بدل شده؛ اما توسعه این فناوری وابستگی تنگاتنگی به زیرساخت‌های سخت‌افزاری، منابع انرژی و داده‌های عظیم دارد؛ عواملی که به‌سادگی در اختیار همه کشورها قرار نمی‌گیرند. به همین دلیل، بسیاری از کارشناسان نسبت به تعمیق شکاف دیجیتال بین کشورهای پیشرو و دیگر کشورها هشدار می‌دهند. در این میان، مسائلی چون وابستگی به تراشه‌های خاص، بحران مصرف برق و نگرانی از مهاجرت داده‌ها به سرورهای خارجی، بحث‌هایی کلیدی هستند که باید با دقت بیشتری بررسی شوند.

در ادامه این مجموعه گفت‌وگوها، این بار به سراغ حمیدرضا کشاورز، پژوهشگر و مهندس یادگیری ماشین، رفته‌ایم تا از منظر فنی به چالش‌ها و فرصت‌های هوش مصنوعی در سطح جهانی و داخلی بپردازیم. کشاورز که سابقه فعالیت در پروژه‌های تحقیقاتی گوناگون در حوزه یادگیری عمیق را دارد، با نگاهی تحلیلی به مسائل زیربنایی مانند نقش تراشه‌ها در پیشرفت مدل‌های زبانی، بحران انرژی در فرآیند آموزش مدل‌ها، و اهمیت مهندسی پرامپت‌ها می‌پردازد و از لزوم توجه به فرهنگ بومی در تعامل با مدل‌های زبانی می‌گوید؛ مشروح این گفت‌وگو را در ادامه بخوانید:

شکاف دیجیتال با «تراشه‌ها» عمیق‌تر می‌شود

امروزه تراشه‌ها نقش مهمی در توسعه مدل‌های هوش مصنوعی دارند، کشاورز در پاسخ به این پرسش که این موضوع تا چه حد حیاتی است و آیا می‌تواند شکاف دیجیتال بین کشورها را عمیق‌تر کند، گفت:«بله، بدون شک. تراشه‌ها و قدرت پردازشی که در اختیار کشورهای توسعه‌یافته قرار دارد، یکی از عوامل کلیدی در رشد سریع آن‌ها در حوزه هوش مصنوعی است. این موضوع می‌تواند شکاف دیجیتال را شدیدتر کند. به‌ویژه چون یادگیری عمیق که همه این تحولات هوش مصنوعی در حوزه‌هایی مثل پردازش تصویر، تولید متن، موسیقی و غیره بر اساس آن است، از لحاظ سخت‌افزاری وابستگی شدیدی به پردازنده‌های قدرتمند دارد. الگوریتم‌های یادگیری عمیق سال‌ها پیش مطرح شده بودند، مثلاً همان مقاله معروف از یان لیکان و جفری هینتون در سال ۱۹۹۲، اما آن زمان هنوز سخت‌افزار مناسبی برای اجرای مؤثرشان وجود نداشت. پیشرفت‌های بعدی، به‌خصوص از سال ۲۰۱۲ به بعد، به لطف پردازنده‌های گرافیکی و معماری‌های جدید ممکن شد.»

دو راه نجات: سخت‌افزار قدرتمند یا الگوریتم‌های بهینه

او در ادامه و در پاسخ به این پرسش که بدون این سخت‌افزارها، آموزش مدل‌ها خیلی زمان‌بر می‌شود، گفت:«دقیقاً همین‌طور است. اگر به تراشه‌های مناسب دسترسی نداشته باشید، ممکن است آموزش یک مدل چند ماه طول بکشد. تلاش‌هایی شده تا با بهینه‌سازی معماری الگوریتم‌ها، مثل کاری که دیپسیک انجام داده، زمان و منابع مورد نیاز کاهش پیدا کند. دیپسیک به جای اینکه صرفاً با سخت‌افزار قوی‌تر جلو برود، معماری مدل را کارآمدتر کرده تا سرعت آموزش بالا برود، بدون اینکه دقت خیلی افت کند. بنابراین، دو مسیر پیش روی ماست: یا سخت‌افزار قوی‌تر بسازیم یا الگوریتم‌ها را بهینه‌تر کنیم.»

چین چگونه بدون برتری سخت‌افزاری در هوش مصنوعی رقابت می‌کند؟

این مهندس یادگیری ماشین در پاسخ به این پرسش که در رقابت جهانی، کشورهایی مثل چین که در تولید تراشه عقب‌ترند، چطور توانسته‌اند در زمینه هوش مصنوعی رقابت کنند، گفت:«اگرچه چین در تولید تراشه به آمریکا نرسیده، اما در نتیجه‌گیری نهایی یعنی تولید مدل‌های هوش مصنوعی، بسیار نزدیک شده است. مثلاً مدل‌هایی که شرکت‌هایی مثل علی‌بابا تولید کرده‌اند، رقابتی هستند. در واقع چین توانسته با طراحی مدل‌های قوی، بخشی از عقب‌ماندگی سخت‌افزاری را جبران کند.»

بحران مصرف برق هوش مصنوعی جدی‌تر از آن چیزی است که فکر می‌کنیم

یکی از نگرانی‌های روز، مسئله مصرف انرژی هوش مصنوعی است. حتی گفته شده تا سال ۲۰۳۳، ۹۹٪ برق آمریکا ممکن است صرف این حوزه شود. کشاورز در پاسخ به این پرسش که این چالش چه پیامدهایی دارد، به‌خصوص برای کشورهایی مثل ایران که با بحران برق مواجه‌اند، گفت:«این یک مسئله بسیار جدی است. هوش مصنوعی مصرف برق بالایی دارد و اگر تأمین برق پایدار نباشد، فرآیند آموزش مدل با اختلال بزرگی مواجه می‌شود. وقتی برق قطع می‌شود، مثل قطع شدن لامپ نیست که بلافاصله بعد از آمدن برق، همه‌چیز به حالت قبل برگردد. فرض کنید شما ساعتی زمان صرف کرده‌اید تا داده‌ها را لود کنید و بعد وارد مرحله پردازش شده‌اید. اگر برق برود، تمام آن زمان از دست می‌رود. حتی اگر از چک‌پوینت‌ها استفاده کنیم، باز هم زمان‌بر و پرهزینه است. این مشکل وقتی جدی‌تر می‌شود که بدانیم آموزش مدل‌های هوش مصنوعی ذاتاً همراه با عدم قطعیت است؛ شما نمی‌دانید نتیجه خواهد داد یا نه.»

سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشه‌های قدرتمند، آمریکا را در هوش مصنوعی شکست داد؟

بازگشت به زغال‌سنگ برای نجات هوش مصنوعی؟

او در ادامه و در پاسخ به این پرسش که آیا برای مقابله با این چالش‌ها، فقط باید به سراغ تأمین برق بیشتر رفت، یا راه‌حل‌های نرم‌افزاری هم وجود دارد، گفت:«ترکیبی از هر دو لازم است. یکی از راه‌ها همین چک‌پوینت‌گیری‌های مداوم است تا در صورت قطع برق از اول شروع نکنید. ولی درنهایت، شما باید از ابتدا بدانید که برق خواهید داشت یا نه، وگرنه کل فرآیند یادگیری به هم می‌ریزد. این موضوع کشورها را ممکن است دوباره به سمت استفاده از انرژی‌های فسیلی مثل زغال‌سنگ ببرد، چون تأمین پایدار برق اهمیت فوق‌العاده‌ای دارد. جالب است بدانید برخی مقالات اشاره می‌کنند تولید هر تصویر با مدل‌های هوش مصنوعی مثل سبک استودیو جیبلی، معادل قطع شدن یک درخت است.»

این مهندس یادگیری ماشین در پاسخ به این پرسش که بهینه‌سازی الگوریتم‌ها برای کاهش مصرف انرژی چقدر جدی گرفته می‌شود، گفت:«به‌شدت. اخیراً دیدگاه تازه‌ای شکل گرفته که می‌گوید ما الگوریتم‌ها را نه فقط برای سریع‌تر شدن بلکه برای کاهش اثرات زیست‌محیطی بهینه کنیم. یعنی اگر قرار است هر ۱۰ عکس یک درخت قطع شود، بهینه‌سازی الگوریتم می‌تواند آن را کاهش دهد.»

مهندسی پرامپت؛ حلقه گمشده تعامل با هوش مصنوعی

اما جدا از زیرساخت‌ها و منابع، بخشی از ظرفیت هوش مصنوعی نه در سخت‌افزار یا داده، بلکه در چگونگی تعامل کاربران با مدل‌ها نهفته است. مدل‌های زبانی بزرگ مثل GPT، به نحوی طراحی شده‌اند که توانایی پاسخ‌گویی به انواع متون و درخواست‌ها را دارند، اما کیفیت این پاسخ‌ها تا حد زیادی به نوع سؤال یا «پرامپت» بستگی دارد. به بیان دیگر، مهارتی به نام پرامپت‌نویسی یا «مهندسی پرامپت» در حال شکل‌گیری است که نقش میانجی میان کاربر و مدل را ایفا می‌کند.

پرامپت خوب باید چند کلمه باشد؟

در ماه‌های گذشته، این مهارت به‌ویژه در بین کاربران حرفه‌ای، توسعه‌دهندگان و حتی معلمان و روزنامه‌نگاران مورد توجه قرار گرفته است. حمیدرضا کشاورز در پاسخ به این پرسش که این مهارت دقیقاً به چه معناست و چطور می‌توان آن را یاد گرفت و آیا نحوه مطرح‌کردن سوال‌ها واقعاً روی نتیجه تأثیر دارد، گفت:«صد در صد. مدل‌های زبانی مثل GPT طوری طراحی شده‌اند که هدف‌شان راضی کردن کاربر است. اگر سؤال شما کلی باشد، پاسخ هم کلی خواهد بود. ولی اگر دقیق بنویسید، جواب دقیق‌تری خواهید گرفت. مثلاً گوگل منتشر کرده که یک پرامپت خوب باید حداقل هزار کلمه باشد! باید فضا را شبیه‌سازی کنید، مثلاً بگویید «فرض کن یک استاد حقوق هستی و این قرارداد را بررسی کن.»

به نظر می‌رسد بخشی از مشکل در تفاوت‌های فرهنگی هم ریشه دارد، او در ادامه و در پاسخ به این پرسش که آیا این ادعا درست است یا خیر، گفت:«بله، این هم یک بُعد ماجراست. در فرهنگ‌هایی مثل ما، خیلی وقت‌ها از پیش‌زمینه‌ها و فضای مشترک ذهنی استفاده می‌کنیم. ولی این مدل‌ها بر اساس فرهنگ غربی ساخته شده‌اند، جایی که همه‌چیز باید شفاف، صریح و دقیق بیان شود. اگر بگویید «خوبی؟»، کسی جزئیات نمی‌دهد. ولی اگر بپرسید «برادرت که تصادف کرده، در بیمارستان چه شرایطی دارد؟»، آن‌وقت پاسخ مشخص و مفصل‌تری خواهید گرفت.»

هوش مصنوعی و تهدید حاکمیت داده

این مهندس یادگیری ماشین در ادامه و در پاسخ به این پرسش که با توجه به اینکه داده‌ها به سرورهای خارجی ارسال می‌شوند، آیا استفاده از این مدل‌ها می‌تواند حاکمیت داده را به خطر بیندازد، گفت:«بله، این خطر وجود دارد. مدل‌ها هرچقدر بیشتر داده بگیرند، بهتر کار می‌کنند. فرقی هم نمی‌کند که داده را از کجا دریافت کرده‌اند. برای همین، اگر اطلاعات حساسی دارید، بهتر است از مدل‌های لوکال استفاده کنید یا قبل از ارسال به مدل‌های خارجی، اطلاعات شخصی را حذف کنید. حتی راهکارهایی هست که اول یک مدل لوکال بیاید داده را پالایش کند، بعد به مدل اصلی داده شود.»

۲۲۷۲۲۷

لینک کوتاه خبر:

https://safirshushtar.ir/?p=24480

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

  • پربازدیدترین ها
  • داغ ترین ها

پربحث ترین ها

تصویر روز:

پیشنهادی: