سایه سنگین بحران برق بر سر آینده هوش مصنوعی در ایران / چطور چین بدون تراشههای قدرتمند، با هوش مصنوعی لرزه بر تن آمریکا انداخت؟

در گفتوگویی تحلیلی با حمیدرضا کشاورز، مهندس یادگیری ماشین، ابعاد فنی و زیربنایی هوش مصنوعی بررسی شده است؛ از بحران تراشه و برق تا اهمیت پرامپتنویسی و حاکمیت داده. در این گفتوگو همچنین به این موضوع پرداخته شده است که آیا ایران میتواند در این رقابت جهانی حرفی برای گفتن داشته باشند یا خیر.
نگار علی، غزال زیاری- در سالهای اخیر، هوش مصنوعی به یکی از پیشرانهای اصلی تحولات فناورانه در جهان بدل شده؛ اما توسعه این فناوری وابستگی تنگاتنگی به زیرساختهای سختافزاری، منابع انرژی و دادههای عظیم دارد؛ عواملی که بهسادگی در اختیار همه کشورها قرار نمیگیرند. به همین دلیل، بسیاری از کارشناسان نسبت به تعمیق شکاف دیجیتال بین کشورهای پیشرو و دیگر کشورها هشدار میدهند. در این میان، مسائلی چون وابستگی به تراشههای خاص، بحران مصرف برق و نگرانی از مهاجرت دادهها به سرورهای خارجی، بحثهایی کلیدی هستند که باید با دقت بیشتری بررسی شوند.
در ادامه این مجموعه گفتوگوها، این بار به سراغ حمیدرضا کشاورز، پژوهشگر و مهندس یادگیری ماشین، رفتهایم تا از منظر فنی به چالشها و فرصتهای هوش مصنوعی در سطح جهانی و داخلی بپردازیم. کشاورز که سابقه فعالیت در پروژههای تحقیقاتی گوناگون در حوزه یادگیری عمیق را دارد، با نگاهی تحلیلی به مسائل زیربنایی مانند نقش تراشهها در پیشرفت مدلهای زبانی، بحران انرژی در فرآیند آموزش مدلها، و اهمیت مهندسی پرامپتها میپردازد و از لزوم توجه به فرهنگ بومی در تعامل با مدلهای زبانی میگوید؛ مشروح این گفتوگو را در ادامه بخوانید:
شکاف دیجیتال با «تراشهها» عمیقتر میشود
امروزه تراشهها نقش مهمی در توسعه مدلهای هوش مصنوعی دارند، کشاورز در پاسخ به این پرسش که این موضوع تا چه حد حیاتی است و آیا میتواند شکاف دیجیتال بین کشورها را عمیقتر کند، گفت:«بله، بدون شک. تراشهها و قدرت پردازشی که در اختیار کشورهای توسعهیافته قرار دارد، یکی از عوامل کلیدی در رشد سریع آنها در حوزه هوش مصنوعی است. این موضوع میتواند شکاف دیجیتال را شدیدتر کند. بهویژه چون یادگیری عمیق که همه این تحولات هوش مصنوعی در حوزههایی مثل پردازش تصویر، تولید متن، موسیقی و غیره بر اساس آن است، از لحاظ سختافزاری وابستگی شدیدی به پردازندههای قدرتمند دارد. الگوریتمهای یادگیری عمیق سالها پیش مطرح شده بودند، مثلاً همان مقاله معروف از یان لیکان و جفری هینتون در سال ۱۹۹۲، اما آن زمان هنوز سختافزار مناسبی برای اجرای مؤثرشان وجود نداشت. پیشرفتهای بعدی، بهخصوص از سال ۲۰۱۲ به بعد، به لطف پردازندههای گرافیکی و معماریهای جدید ممکن شد.»
دو راه نجات: سختافزار قدرتمند یا الگوریتمهای بهینه
او در ادامه و در پاسخ به این پرسش که بدون این سختافزارها، آموزش مدلها خیلی زمانبر میشود، گفت:«دقیقاً همینطور است. اگر به تراشههای مناسب دسترسی نداشته باشید، ممکن است آموزش یک مدل چند ماه طول بکشد. تلاشهایی شده تا با بهینهسازی معماری الگوریتمها، مثل کاری که دیپسیک انجام داده، زمان و منابع مورد نیاز کاهش پیدا کند. دیپسیک به جای اینکه صرفاً با سختافزار قویتر جلو برود، معماری مدل را کارآمدتر کرده تا سرعت آموزش بالا برود، بدون اینکه دقت خیلی افت کند. بنابراین، دو مسیر پیش روی ماست: یا سختافزار قویتر بسازیم یا الگوریتمها را بهینهتر کنیم.»
چین چگونه بدون برتری سختافزاری در هوش مصنوعی رقابت میکند؟
این مهندس یادگیری ماشین در پاسخ به این پرسش که در رقابت جهانی، کشورهایی مثل چین که در تولید تراشه عقبترند، چطور توانستهاند در زمینه هوش مصنوعی رقابت کنند، گفت:«اگرچه چین در تولید تراشه به آمریکا نرسیده، اما در نتیجهگیری نهایی یعنی تولید مدلهای هوش مصنوعی، بسیار نزدیک شده است. مثلاً مدلهایی که شرکتهایی مثل علیبابا تولید کردهاند، رقابتی هستند. در واقع چین توانسته با طراحی مدلهای قوی، بخشی از عقبماندگی سختافزاری را جبران کند.»
بحران مصرف برق هوش مصنوعی جدیتر از آن چیزی است که فکر میکنیم
یکی از نگرانیهای روز، مسئله مصرف انرژی هوش مصنوعی است. حتی گفته شده تا سال ۲۰۳۳، ۹۹٪ برق آمریکا ممکن است صرف این حوزه شود. کشاورز در پاسخ به این پرسش که این چالش چه پیامدهایی دارد، بهخصوص برای کشورهایی مثل ایران که با بحران برق مواجهاند، گفت:«این یک مسئله بسیار جدی است. هوش مصنوعی مصرف برق بالایی دارد و اگر تأمین برق پایدار نباشد، فرآیند آموزش مدل با اختلال بزرگی مواجه میشود. وقتی برق قطع میشود، مثل قطع شدن لامپ نیست که بلافاصله بعد از آمدن برق، همهچیز به حالت قبل برگردد. فرض کنید شما ساعتی زمان صرف کردهاید تا دادهها را لود کنید و بعد وارد مرحله پردازش شدهاید. اگر برق برود، تمام آن زمان از دست میرود. حتی اگر از چکپوینتها استفاده کنیم، باز هم زمانبر و پرهزینه است. این مشکل وقتی جدیتر میشود که بدانیم آموزش مدلهای هوش مصنوعی ذاتاً همراه با عدم قطعیت است؛ شما نمیدانید نتیجه خواهد داد یا نه.»
بازگشت به زغالسنگ برای نجات هوش مصنوعی؟
او در ادامه و در پاسخ به این پرسش که آیا برای مقابله با این چالشها، فقط باید به سراغ تأمین برق بیشتر رفت، یا راهحلهای نرمافزاری هم وجود دارد، گفت:«ترکیبی از هر دو لازم است. یکی از راهها همین چکپوینتگیریهای مداوم است تا در صورت قطع برق از اول شروع نکنید. ولی درنهایت، شما باید از ابتدا بدانید که برق خواهید داشت یا نه، وگرنه کل فرآیند یادگیری به هم میریزد. این موضوع کشورها را ممکن است دوباره به سمت استفاده از انرژیهای فسیلی مثل زغالسنگ ببرد، چون تأمین پایدار برق اهمیت فوقالعادهای دارد. جالب است بدانید برخی مقالات اشاره میکنند تولید هر تصویر با مدلهای هوش مصنوعی مثل سبک استودیو جیبلی، معادل قطع شدن یک درخت است.»
این مهندس یادگیری ماشین در پاسخ به این پرسش که بهینهسازی الگوریتمها برای کاهش مصرف انرژی چقدر جدی گرفته میشود، گفت:«بهشدت. اخیراً دیدگاه تازهای شکل گرفته که میگوید ما الگوریتمها را نه فقط برای سریعتر شدن بلکه برای کاهش اثرات زیستمحیطی بهینه کنیم. یعنی اگر قرار است هر ۱۰ عکس یک درخت قطع شود، بهینهسازی الگوریتم میتواند آن را کاهش دهد.»
مهندسی پرامپت؛ حلقه گمشده تعامل با هوش مصنوعی
اما جدا از زیرساختها و منابع، بخشی از ظرفیت هوش مصنوعی نه در سختافزار یا داده، بلکه در چگونگی تعامل کاربران با مدلها نهفته است. مدلهای زبانی بزرگ مثل GPT، به نحوی طراحی شدهاند که توانایی پاسخگویی به انواع متون و درخواستها را دارند، اما کیفیت این پاسخها تا حد زیادی به نوع سؤال یا «پرامپت» بستگی دارد. به بیان دیگر، مهارتی به نام پرامپتنویسی یا «مهندسی پرامپت» در حال شکلگیری است که نقش میانجی میان کاربر و مدل را ایفا میکند.
پرامپت خوب باید چند کلمه باشد؟
در ماههای گذشته، این مهارت بهویژه در بین کاربران حرفهای، توسعهدهندگان و حتی معلمان و روزنامهنگاران مورد توجه قرار گرفته است. حمیدرضا کشاورز در پاسخ به این پرسش که این مهارت دقیقاً به چه معناست و چطور میتوان آن را یاد گرفت و آیا نحوه مطرحکردن سوالها واقعاً روی نتیجه تأثیر دارد، گفت:«صد در صد. مدلهای زبانی مثل GPT طوری طراحی شدهاند که هدفشان راضی کردن کاربر است. اگر سؤال شما کلی باشد، پاسخ هم کلی خواهد بود. ولی اگر دقیق بنویسید، جواب دقیقتری خواهید گرفت. مثلاً گوگل منتشر کرده که یک پرامپت خوب باید حداقل هزار کلمه باشد! باید فضا را شبیهسازی کنید، مثلاً بگویید «فرض کن یک استاد حقوق هستی و این قرارداد را بررسی کن.»
به نظر میرسد بخشی از مشکل در تفاوتهای فرهنگی هم ریشه دارد، او در ادامه و در پاسخ به این پرسش که آیا این ادعا درست است یا خیر، گفت:«بله، این هم یک بُعد ماجراست. در فرهنگهایی مثل ما، خیلی وقتها از پیشزمینهها و فضای مشترک ذهنی استفاده میکنیم. ولی این مدلها بر اساس فرهنگ غربی ساخته شدهاند، جایی که همهچیز باید شفاف، صریح و دقیق بیان شود. اگر بگویید «خوبی؟»، کسی جزئیات نمیدهد. ولی اگر بپرسید «برادرت که تصادف کرده، در بیمارستان چه شرایطی دارد؟»، آنوقت پاسخ مشخص و مفصلتری خواهید گرفت.»
هوش مصنوعی و تهدید حاکمیت داده
این مهندس یادگیری ماشین در ادامه و در پاسخ به این پرسش که با توجه به اینکه دادهها به سرورهای خارجی ارسال میشوند، آیا استفاده از این مدلها میتواند حاکمیت داده را به خطر بیندازد، گفت:«بله، این خطر وجود دارد. مدلها هرچقدر بیشتر داده بگیرند، بهتر کار میکنند. فرقی هم نمیکند که داده را از کجا دریافت کردهاند. برای همین، اگر اطلاعات حساسی دارید، بهتر است از مدلهای لوکال استفاده کنید یا قبل از ارسال به مدلهای خارجی، اطلاعات شخصی را حذف کنید. حتی راهکارهایی هست که اول یک مدل لوکال بیاید داده را پالایش کند، بعد به مدل اصلی داده شود.»
۲۲۷۲۲۷