ترنج موبایل
کد خبر: ۹۳۰۱۲۵

نقدی بر روایت‌های «تاریک» درباره هوش مصنوعی

نقدی بر روایت‌های «تاریک» درباره هوش مصنوعی

ادعای اینکه «۸ میلیارد انسان، مربیان رایگان هوش مصنوعی‌اند» یا اینکه «هر اصلاحی که به مدل می‌دهیم، تابوت انسان را می‌کوبد»، یک برداشت استعاری و دراماتیک است، نه تحلیل فنی.

در ماه‌های اخیر، متنی در شبکه‌های اجتماعی دست‌به‌دست می‌شود که چهار «هدف تاریک» برای عرضه رایگان و گسترده هوش مصنوعی مطرح می‌کند. این متن، با وجود اینکه بخش‌هایی از آن بر پایه نگرانی‌های معتبر جهانی است، اما در بسیاری نقاط دچار سوءتفاهم، بزرگ‌نمایی و تفسیرهای غیرواقعی است.

در این یادداشت، تلاش می‌کنیم تحلیل علمی و بی‌طرفانه از این روایت ارائه کنیم؛ تحلیلی که نه اسیر هیجان فناوری است و نه گرفتار ترس‌های آخرالزمانی.

۱. «کاربران کارگران رایگان آموزش هوش مصنوعی‌اند»

واقعیت چیست؟

در توسعه مدل‌های پیشرفته هوش مصنوعی، بازخورد انسانی نقش دارد. این موضوع با نام RLHF شناخته می‌شود و در بهبود رفتار مدل مؤثر است. شرکت‌ها از داده‌های ناشی از تعامل کاربران برای بهینه‌سازی خروجی‌ها استفاده می‌کنند، همان‌طور که تمام سرویس‌های دیجیتال طی دو دهه گذشته چنین کرده‌اند.

اما کدام بخش اغراق است؟

ادعای اینکه «۸ میلیارد انسان، مربیان رایگان هوش مصنوعی‌اند» یا اینکه «هر اصلاحی که به مدل می‌دهیم، تابوت انسان را می‌کوبد»، یک برداشت استعاری و دراماتیک است، نه تحلیل فنی. واقعیت این است که بخش بسیار عمده داده‌های موردنیاز مدل‌ها از کتاب‌ها، مقالات، داده‌های خریداری‌شده، کدهای منبع‌باز و محتوای موجود در اینترنت تأمین می‌شود.

نتیجه: این گزاره بخشی از حقیقت را دارد، اما بزرگ‌نمایی شده و جنبه‌های فنی آن ناقص بیان شده است.

۲. «خلع سلاح شناختی و وابستگی برگشت‌ناپذیر»

ریشه علمی ادعا

در علوم شناختی، پدیده‌ای داریم به نام Cognitive Offloading؛ یعنی انسان بخشی از کارهای ذهنی خود را به ابزارها واگذار می‌کند. همان‌طور که GPS توانایی جهت‌یابی یا ماشین‌حساب مهارت محاسبه ذهنی را کم‌رنگ کرده‌اند، هوش مصنوعی نیز می‌تواند بخشی از فرایندهای فکری را جایگزین کند.

کدام بخش غیرعلمی است؟

اینکه شرکت‌ها «عمداً» برای ناتوان‌سازی انسان‌ها چنین ابزاری ساخته‌اند، هیچ پشتوانه شواهدی ندارد. این یک پیامد محتمل فناوری‌های راحت‌کننده است، نه یک طرح سری برای «اهلی‌کردن» مردم. محور اصلی شرکت‌ها همچنان، سود اقتصادی و رقابت بازار است.

نتیجه: نگرانی معتبر است، اما «هدف‌دار بودنِ ناتوان‌سازی ذهن انسان» ادعای مبالغه‌آمیز است.

۳. «کنترل حقیقت و مهندسی واقعیت»

نقطه قوت این نقد

روزانه میلیون‌ها نفر به جای جستجو، از هوش مصنوعی می‌پرسند. اگر یک شرکت به منبع اصلی پاسخ تبدیل شود، خطر واقعی به‌وجود می‌آید: مرجعیت شناختی متمرکز. به همین دلیل، دولت‌ها، دانشگاه‌ها و نهادهای استانداردگذاری در جهان بر شفافیت مدل‌ها تأکید دارند.

اما ادعای «خدای ذهن‌ها شدن شرکت‌ها» صحیح نیست

مدل‌های هوش مصنوعی خالق حقیقت نیستند؛ بلکه ترکیب‌کننده داده‌های موجودند. هیچ مدل بزرگی بدون نظارت عمومی، فشار رسانه‌ای و محدودیت‌های حقوقی نمی‌تواند روایت دلخواه خود را «تنها منبع حقیقت» کند.

نتیجه: مسئله «تمرکز قدرت اطلاعاتی» واقعی است، اما تفسیر متن بیش از حد آخرالزمانی و قطعی است.

۴. «انحصار مطلق و استعمار دیجیتال»

واقعیت شناخته‌شده

در اقتصاد دیجیتال، شرکت اول بازار معمولاً بیشترین سهم را می‌برد. از همین رو شرکت‌ها با عجله مدل‌هایشان را عرضه می‌کنند تا قبل از وضع قانون، جایگاه بهتری بگیرند.

اما بخش غیرواقعی کجاست؟

اولاً انحصار پایدار در حوزه هوش مصنوعی تقریباً ناممکن است. ده‌ها شرکت، دولت و پروژه متن‌باز (مثل Mistral، Llama، Gemini، Claude، مدل‌های چینی و اروپایی) هم‌زمان مسیر موازی ایجاد کرده‌اند. ثانیاً استعمار دیجیتال، اصطلاح رسانه‌ای است نه یک منطق علمی.

نتیجه: رقابت و عجله واقعی‌اند؛ ادعای «تسلط کامل و بدون راه‌فرار» اغراق رسانه‌ای است.

جمع‌بندی

متن مورد بحث ترکیبی از نگرانی‌های معتبر، حقایق نیمه‌صحیح و تفسیرهای اغراق‌آمیز است. نه هوش مصنوعی یک منجی تمام‌عیار است و نه ابزار اهلی‌سازی بشر. آنچه اهمیت دارد، سواد فناورانه و نظارت هوشمندانه است، نه افتادن در دام روایت‌های سیاه یا سفید.

آموزش عمومی

چگونه با هوش مصنوعی تعامل کنیم تا قربانی وابستگی و سوءاطلاعات نشویم؟

1. هوش مصنوعی را ابزار بدانیم، نه جایگزین فکر کردن. همیشه نتیجه را ارزیابی کنید، نه اینکه بی‌چون‌وچرا بپذیرید.

2. از چند منبع استفاده کنید. پاسخ یک مدل کافی نیست. حداقل یک منبع معتبر دیگر را بررسی کنید.

3. سواد رسانه‌ای و فناوری را بالا ببرید. یادگیری نحوه کار مدل‌ها، شما را از تفسیرهای تهدیدآمیز یا فریبنده دور می‌کند.

4. مهارت‌های شناختی خود را فعال نگه دارید. گاهی به‌جای استفاده از هوش مصنوعی، خودتان بنویسید، تحلیل کنید یا مسئله را حل کنید.

5. در حوزه هوش مصنوعی، به‌روز بمانید. ترس از فناوری، محصولِ ناآگاهی از آن است.

6. به کودکان و نوجوانان استفاده سالم را آموزش دهید. آنها آسیب‌پذیرترین گروه در برابر وابستگی شناختی‌اند.

 

نویسنده : محمدباقر سبط الشیخ
ارسال نظرات
خط داغ