اشاره نویسنده به وعده های اغراق آمیز هوش مصنوعی است که به مثابه روغن مار است که برخی ادعای درمان همه دردها را با آن دارند. کتاب “روغن مار هوش مصنوعی” در بحبوحه طوفان تبلیغات و هیاهوی بیسابقه پیرامون فناوریهای هوش مصنوعی (AI) منتشر شده است و هدف آن، زدودن غبار توهم از واقعیتهای این تکنولوژی است.
نام انتشارات: Princeton University Press
تعداد صفحات: 360 صفحه
.
نمره کاربران (Amazon): 4.3 از 5
تعداد رأیدهندگان: 455 نفر
.
نمره کاربران (Goodreads): 3.92 از 5
تعداد رأیدهندگان: 1628 نفر
مقدمه
نویسندگان، که خود از دانشمندان برجسته کامپیوتر هستند، استدلال میکنند که بسیاری از محصولات و ادعاهایی که با برچسب هوش مصنوعی به بازار عرضه میشوند، در حقیقت چیزی جز «روغن مار» (Snake Oil) مدرن نیستند؛ محصولاتی که ادعاهای بزرگی دارند اما در عمل، یا کار نمیکنند یا مضر هستند و تنها به منافع مالی شرکتهای بزرگ میانجامند. این کتاب نه تنها پتانسیلهای واقعی هوش مصنوعی، مانند پیشرفتهای اخیر در مدلهای مولد (مانند ChatGPT)، را نادیده نمیگیرد، بلکه بر اهمیت تشخیص محدودیتهای ذاتی آن و خطرات ناشی از بهکارگیری نادرست آن در حوزههای حساس مانند عدالت کیفری، آموزش، استخدام، و پزشکی تأکید دارد. هدف اصلی نویسندگان این است که به عموم مردم، سیاستگذاران و رهبران کسبوکار بیاموزند که چگونه هوش مصنوعی را در چارچوب یک سرمایهگذاری با بازدهی نامطمئن ببینند و از آنها بخواهند که قبل از اعتماد یا خرید یک محصول مبتنی بر هوش مصنوعی، شواهد و مدارک فوقالعادهای برای ادعاهای مطرحشده درخواست کنند. این رویکرد انتقادی، که بر پایه دانش فنی عمیق بنا شده، خواننده را به یک مصرفکننده و تصمیمگیرنده آگاه در عصر هوش مصنوعی تبدیل میکند.
ایده اصلی
ایده اصلی کتاب، ارائه یک چارچوب فکری سختگیرانه و مبتنی بر شواهد برای تمایز قائل شدن بین قابلیتهای واقعی هوش مصنوعی (AI that can work) و ادعاهای متورم و بیاساس (AI snake oil) است. نویسندگان بر این باورند که جامعه باید از تکیه بر «باور کورکورانه» و «هیاهوی فناوری» دست بردارد و سه نوع اصلی هوش مصنوعی یعنی هوش مصنوعی پیشبینیکننده (Predictive AI)، هوش مصنوعی مولد (Generative AI) و هوش مصنوعی تعدیل محتوا (Content Moderation AI) را بر اساس محدودیتهای فنی و اجتماعیشان مورد تحلیل قرار دهد. این کتاب استدلال میکند که بسیاری از ادعاهای شکستخورده هوش مصنوعی ریشه در یک مشکل اساسی دارند: ناتوانی ذاتی در پیشبینی دقیق نتایج پیچیده انسانی و اجتماعی. مدلهای هوش مصنوعی به بهترین شکل میتوانند الگوهای موجود در دادههای گذشته را تکرار کنند، اما در مواجهه با سیستمهای پویای انسانی، فقدان شواهد قوی، سوگیریهای نهادینهشده، و انگیزههای مالی شرکتها، اغلب منجر به راهحلهایی میشوند که در بهترین حالت ناکارآمد و در بدترین حالت مضر و ناعادلانه هستند. هدف نهایی این است که هوش مصنوعی را از یک موجودیت مرموز و تقریباً جادویی، به یک ابزار مهندسی زمینی تبدیل کنیم که عملکرد آن باید به همان سختی ابزارهای سنتی ارزیابی و تأیید شود.
چگونه هوش مصنوعی پیشبینیکننده به خطا میرود
هوش مصنوعی پیشبینیکننده، که به منظور اتخاذ تصمیمات در حوزههای حیاتی مانند رتبهبندی اعتباری، استخدام و سیستم عدالت کیفری به کار میرود، قلب ادعاهای اغراقآمیز هوش مصنوعی مارافکن را تشکیل میدهد. این فصل توضیح میدهد که چگونه هوش مصنوعی در این زمینهها نه تنها وعدههای خود را عملی نمیکند، بلکه به دلیل چندین نقص ساختاری، وضعیت موجود را بدتر میسازد. اولاً، بسیاری از تصمیمات مهم زندگی تحت تأثیر این الگوریتمها قرار میگیرند، اما یک پیشبینی خوب لزوماً منجر به یک تصمیم خوب نمیشود. هوش مصنوعی ممکن است با دقت بالایی رفتار گذشته را پیشبینی کند، اما تأثیر دخالتهای انسانی یا تغییرات بافتار را در نظر نمیگیرد. ثانیاً، عدم شفافیت در نحوه عملکرد الگوریتمها (اغلب به دلیل مالکیت خصوصی یا پیچیدگی فنی) انگیزهای برای «بازی کردن با سیستم» ایجاد میکند؛ افراد یا سازمانها یاد میگیرند که چگونه ورودیهای خود را طوری تغییر دهند که خروجیهای مطلوب هوش مصنوعی را به دست آورند، بدون اینکه واقعاً شایستگی یا تغییر مثبتی در دنیای واقعی رخ داده باشد. سوماً، هوش مصنوعی میتواند به افزایش نابرابریهای موجود منجر شود. الگوریتمها که بر دادههای تاریخی و سوگیریدار آموزش دیدهاند، به طور مداوم گروههای حاشیهنشین را به عنوان پرخطر شناسایی و آنها را مجازات میکنند و به این ترتیب، چرخه نابرابری را تقویت میکنند. حتی زمانی که مدلها در پیشبینی موفق هستند، اغلب این پیشبینیها درباره افراد اشتباه است؛ یعنی مدل بر اساس یک معیار پراکسی نامناسب، در مورد یک فرد قضاوت میکند، که این امر منجر به اتوماسیون بیش از حد و سلب اختیار انسانی از فرآیند تصمیمگیری میشود. این فصل اصرار دارد که باید احتیاط بیشتری در برابر القای الگوریتمهای پیشبینیکننده به فرآیندهای حیاتی انسانی به خرج داد، بهخصوص زمانی که شواهد محکمی برای کارایی آنها در مقیاسهای عملی وجود ندارد.
چرا هوش مصنوعی نمیتواند آینده را پیشبینی کند؟
این فصل به تحلیل عمیقتر محدودیتهای ذاتی هوش مصنوعی در پیشبینیهای بلندمدت و پیچیده میپردازد و ریشههای شکستها را در ماهیت سیستمهای اجتماعی و انسانی جستجو میکند. اگرچه هوش مصنوعی در پیشبینی پدیدههای پایدار (مانند آب و هوا) یا رویدادهای کوتاهمدت و محدود (مانند قیمت سهام در چند ثانیه آینده) میتواند موفق باشد، اما در پیشبینی نتایج مهم زندگی و رفتارهای اجتماعی با شکست مواجه میشود. نویسندگان با بررسی پروژههای بزرگی مانند چالش خانوادههای شکننده (The Fragile Families Challenge) نشان میدهند که چگونه حتی با دادههای غنی و تیمهای برجسته، مدلهای پیشبینیکننده عملکردی بهتر از پیشبینیهای خط مبنا یا شهود انسانی نشان ندادند. دلیل این شکستها در چند اصل کلیدی نهفته است: اول، پدیدههای انسانی ذاتی پیچیده هستند و توسط متغیرهای بیشماری شکل میگیرند که اغلب در مجموعه دادهها ثبت نمیشوند. ثانیاً، دانش گذشته به سرعت منسوخ میشود. دادههایی که هوش مصنوعی بر آنها آموزش دیده است، تصویری از گذشته هستند، اما با تغییر شرایط اقتصادی، فرهنگی و سیاسی، الگوی رفتاری مردم نیز تغییر میکند و مدلها از کار میافتند. سوماً، بازخورد و مداخله انسانی پس از یک پیشبینی، خود میتواند نتیجه را تغییر دهد و پیشبینی اولیه را باطل سازد. به عنوان مثال، اگر هوش مصنوعی پیشبینی کند که یک فرد احتمال ارتکاب جرم بالایی دارد، این پیشبینی میتواند منجر به نظارت بیشتر و در نهایت، تأیید خودکار پیشبینی شود. این فصل تأکید میکند که به جای جستجوی یک مدل جادویی برای پیشبینی آینده، باید محدودیتهای ذاتی هر پیشبینی را درک کرد و تنها به هوش مصنوعیهایی اعتماد کرد که در پیشبینی تجمعی (مانند پیشبینی نرخ جرم در یک شهر) موفق باشند، نه در پیشبینی فردی که عواقب بسیار جدیتری دارد.
مسیر طولانی به سوی هوش مصنوعی مولد
هوش مصنوعی مولد، با مدلهای زبان بزرگ و ابزارهای تولید تصویر مانند ChatGPT و DALL-E، توجه عموم را به خود جلب کرده است و تواناییهای جدیدی را در زمینههای خلاقیت، کدنویسی و تعامل ارائه میدهد. این فصل تاریخچه طولانی و اغلب فراموششده هوش مصنوعی مولد را ردیابی میکند و نشان میدهد که این فناوری یک موفقیت ناگهانی نیست، بلکه نتیجه دههها نوآوری متوالی است که در نهایت به مدلهای ترانسفورمر رسیده است. با وجود شگفتیهای این مدلها، نویسندگان بر محدودیتهای کلیدی آنها تأکید میکنند. مدلهای مولد در واقع ماشینهای بازسازی و تکرار الگو هستند که توانایی تولید محتوای جدید، روان و در ظاهر منطقی را دارند، اما فاقد درک واقعی یا توانایی استدلال قوی هستند. یکی از مشکلات جدی این حوزه، خودکارسازی محتوای بیارزش (Automating Bullshit) است؛ هوش مصنوعی مولد میتواند با اطمینان کامل، اطلاعات نادرست یا بیمعنی تولید کند (که به «توهمزایی» معروف است) که به دلیل روانی متن، تشخیص آن دشوار است. این امر، به ویژه در تولید متون تخصصی یا مقالات علمی، پتانسیل آسیبرسانی بالایی دارد. علاوه بر این، نگرانیهای اخلاقی درباره تخصیص کار خلاق مطرح است، زیرا هوش مصنوعی از مجموعه دادههای عظیمی از آثار هنری و متنی که توسط انسانها خلق شدهاند، برای آموزش استفاده میکند، بدون اینکه خالقان اصلی پاداشی دریافت کنند. همچنین، این فصل به خطرات عمیقتر مانند تولید دیپفیکها (Deepfakes)، کلاهبرداری و سوءاستفادههای بدخواهانه دیگر اشاره میکند. در نتیجه، در حالی که هوش مصنوعی مولد یک ابزار قدرتمند است، باید با آگاهی کامل از فقدان اصالت و درک زمینه در خروجیهای آن استفاده شود و نباید به عنوان منبع نهایی حقیقت یا دانش تخصصی مورد اعتماد قرار گیرد.
آیا هوش مصنوعی پیشرفته یک تهدید وجودی است؟
یکی از بحثهای داغ در فضای عمومی، این ایده است که هوش مصنوعی پیشرفته میتواند به یک تهدید وجودی (Existential Threat) برای بشریت تبدیل شود. این فصل با نگاهی عقلانی و مبتنی بر واقعیتهای فنی، این ادعا را به چالش میکشد. نویسندگان، مفهوم نردبان کلیت (The Ladder of Generality) را مطرح میکنند که انواع هوش مصنوعی را بر اساس سطح قابلیتهای آنها طبقهبندی میکند، از هوش مصنوعی محدود به وظایف خاص (Narrow AI) تا هوش عمومی مصنوعی (AGI) که قابلیتهای شناختی انسان را تقلید میکند. آنها استدلال میکنند که بخش زیادی از هراس در مورد تهدید وجودی، ناشی از جهشهای فرضی و اثباتنشده از یک سطح به سطح بعدی است. در واقعیت، هوش مصنوعی فعلی هنوز در انجام وظایف سادهای که نیاز به درک قوی و زمینه اجتماعی دارند، با مشکل مواجه است و شواهد محکمی مبنی بر اینکه پیشرفت ناگهانی به سمت AGI یا هوش مصنوعی سرکش (Rogue AI) قریبالوقوع باشد، وجود ندارد. نویسندگان هشدار میدهند که تمرکز بیش از حد بر این تهدیدات دور و فرضی یک انحراف خطرناک از تهدیدات واقعی و ملموس است که هوش مصنوعی در حال حاضر ایجاد میکند، مانند تقویت نابرابری، سوگیریهای الگوریتمی، و از دست دادن حریم خصوصی. یک رویکرد بهتر، به جای فراخوان برای ممنوعیت جهانی توسعه هوش مصنوعی، دفاع در برابر تهدیدات مشخص و فعلی است که توسط انسانهایی که از این ابزارها سوءاستفاده میکنند، به وجود میآیند. این فصل در نهایت نتیجه میگیرد که ما باید بیشتر نگران آن باشیم که مردم با هوش مصنوعی چه خواهند کرد، تا اینکه هوش مصنوعی به خودی خود چه خواهد کرد.
چرا هوش مصنوعی نمیتواند رسانههای اجتماعی را اصلاح کند؟
رسانههای اجتماعی با چالشهای بزرگی مانند انتشار اطلاعات غلط، محتوای نفرتپراکن، و ترولینگ مواجه هستند و بسیاری شرکتهای فناوری ادعا میکنند که هوش مصنوعی میتواند راه حل این مشکلات باشد. این فصل به طور قاطع استدلال میکند که هوش مصنوعی به دلیل هفت نقص عمده در تعدیل محتوا (Content Moderation) شکست خورده است و در واقع نمیتواند به طور مؤثر رسانههای اجتماعی را اصلاح کند. مشکل اصلی این است که ماهیت محتوای انسانی به شدت وابسته به بافتار (Context) است؛ هوش مصنوعی اغلب در درک مفاهیم ظریف، کنایهها، طنز، یا بافت فرهنگی یک جمله برای قضاوت درباره مضر بودن آن ناتوان است. برای مثال، عبارتی که در یک گروه دوستانه قابل قبول است، ممکن است در یک مجمع عمومی توهینآمیز باشد. علاوه بر این، هوش مصنوعی در بهترین حالت میتواند گذشته را پیشبینی کند؛ یعنی الگوریتمها برای تشخیص محتوایی آموزش دیدهاند که قبلاً به عنوان مضر برچسب خورده است، اما در برابر خلاقیت و هوشمندی انسانهای بدخواه که دائماً در حال یافتن راههای جدید برای دور زدن سیستم هستند، شکست میخورد. بخش سخت تعدیل محتوا، تعیین مرزهای دقیق بین آزادی بیان و آسیبرسانی است که یک تصمیم اخلاقی و حقوقی است و نه یک مسئله فنی قابل حل با الگوریتم. تلاش برای خودکارسازی این فرآیند، منجر به خطاهای فاجعهبار میشود که در آن، محتوای بیضرر سانسور میشود (خطای نوع اول) و محتوای مضر باقی میماند (خطای نوع دوم). بنابراین، راهحلهای واقعی در این فضا، نیازمند تصمیمگیریهای انسانی با پشتیبانی ابزارهای سادهتر و شفافتر هستند، نه اتکای کورکورانه به سیستمهای هوش مصنوعی ناموثق.
چرا افسانههای هوش مصنوعی باقی میمانند؟
این فصل به تحلیل روانشناختی و ساختاری دلایلی میپردازد که چرا علیرغم شواهد متعدد مبنی بر شکستهای هوش مصنوعی، هیاهو و افسانههای پیرامون آن همچنان در جامعه و رسانهها باقی مانده است. نویسندگان استدلال میکنند که هیاهوی هوش مصنوعی با هیاهوی فناوریهای قبلی متفاوت است، زیرا از تصاویر قویتر و ترسناکتری از آینده مانند رباتهای قاتل یا هوش مافوق بشری استفاده میکند. در وهله اول، فرهنگ و تاریخچه جامعه هوش مصنوعی به خودی خود مملو از ادعاهای اغراقآمیز و پیشبینیهای بلندمدت شکستخورده است که یک میراث نامطلوب برای ایجاد اعتماد به جای گذاشته است. دوم، شرکتها انگیزههای کمی برای شفافیت دارند. فاش کردن شکستهای هوش مصنوعی یا محدودیتهای فنی آن، به اعتبار و ارزش بازار آنها آسیب میرساند، بنابراین آنها تمایل دارند که مدلها را به عنوان جعبههای سیاه جادویی معرفی کنند. سوم، یک بحران بازتولید (Reproducibility Crisis) در تحقیقات هوش مصنوعی وجود دارد؛ بسیاری از مقالات تحقیقاتی که ادعای نتایج درخشانی دارند، قابل تکرار نیستند، زیرا کد، دادهها یا تنظیمات لازم منتشر نمیشود، که این امر مانع از اعتبارسنجی مستقل میشود. چهارم، رسانههای خبری اغلب در تلاش برای گزارشدهی جذاب، تمایل به سادهسازی و اغراق در مورد تواناییهای هوش مصنوعی دارند و از پرداختن به جزئیات فنی و محدودیتهای آن غفلت میورزند. این عوامل با هم ترکیب میشوند و یک گرداب هیاهو ایجاد میکنند که در آن، ادعاهای بدون پشتوانه به راحتی پذیرفته میشوند و سرمایهگذاریها به جای راهحلهای واقعی، به سمت «روغن مار» هوش مصنوعی هدایت میشوند و تنها راه نجات، تقویت سواد هوش مصنوعی در میان مردم و تشویق به پرسشگری انتقادی است.
از اینجا به کجا میرویم؟
فصل پایانی کتاب، یک فراخوان عمل برای خروج از گرداب هیاهوی هوش مصنوعی و حرکت به سمت یک رویکرد عملی، مسئولانه و مبتنی بر شواهد است. نویسندگان تأکید میکنند که برای مهار خطرات هوش مصنوعی و بهرهبرداری مؤثر از پتانسیلهای واقعی آن، نباید صرفاً به تنظیم مقررات دولتی یا خودتنظیمی شرکتها اتکا کرد. در عوض، آنها یک مسیر چهارگانه را پیشنهاد میکنند: اول، تمرکز بر موارد استفاده معقول؛ هوش مصنوعی باید در زمینههایی به کار رود که قابلیتهای آن (مانند تشخیص الگوهای درونی داده) واقعاً ارزشمند باشد، نه در مسائلی که نیاز به قضاوت انسانی، استدلال پیچیده یا درک زمینه فرهنگی دارند. دوم، تقاضا برای شواهد فوقالعاده؛ هر ادعایی درباره یک محصول هوش مصنوعی باید با مدارک تجربی و تأییدشده پشتیبانی شود، بهویژه اگر قرار است در زمینههای حیاتی استفاده شود. سوم، سواد هوش مصنوعی را در اولویت قرار دهید؛ مردم باید اصول فنی هوش مصنوعی، از جمله نحوه کارکرد آن و محدودیتهایش، را درک کنند تا بتوانند فریب «روغن مار» را نخورند و در برابر آن موضع بگیرند. چهارم، مسئولیتپذیری را در فرآیند قرار دهید؛ حتی زمانی که هوش مصنوعی در سیستمهای تصمیمگیری به کار میرود، باید مکانیسمهای شفافی برای شناسایی خطاها، ارائه توضیح و امکان تجدیدنظر انسانی وجود داشته باشد. این فصل نتیجه میگیرد که آینده هوش مصنوعی نه توسط قابلیتهای جادویی ماشین، بلکه توسط انتخابهای ما در مورد چگونگی و چرایی استفاده از آن شکل میگیرد.
نکات کلیدی
- تشخیص روغن مار: هوش مصنوعی به سه دسته (پیشبینیکننده، مولد، تعدیل محتوا) تقسیم میشود و در بسیاری از ادعاها، به ویژه در مورد پیشبینی نتایج اجتماعی و انسانی، شکست میخورد.
 - محدودیتهای پیشبینی: هوش مصنوعی در پیشبینیهای فردی و بلندمدت شکست میخورد، زیرا سیستمهای انسانی پویا، پیچیده و غیرقابلالگوریتمی هستند. پیشبینیهای موفق اغلب در مورد گذشته یا دادههای تجمعی صادق است.
 - توهم مولد: مدلهای مولد (مانند LLMها) ابزارهای قدرتمندی برای تولید محتوای روان هستند، اما فاقد درک واقعی یا اصالت هستند و به آسانی “اطلاعات بیارزش را خودکارسازی” میکنند.
 - تهدید وجودی در مقابل تهدید واقعی: نگرانی بیش از حد درباره هوش مصنوعی ابرقدرت و تهدیدات وجودی، حواس را از خطرات فعلی و ملموس منحرف میکند، مانند تقویت سوگیریها و نابرابریها توسط هوش مصنوعی پیشبینیکننده.
 - مسئله بافتار در رسانههای اجتماعی: هوش مصنوعی در تعدیل محتوا در رسانههای اجتماعی به شدت شکست میخورد، زیرا محتوای انسانی به شدت وابسته به بافتار، فرهنگ و ظرافتهای زبانی است که الگوریتمها قادر به درک آنها نیستند.
 - فرهنگ هیاهو: افسانههای هوش مصنوعی به دلیل انگیزههای مالی شرکتها، عدم شفافیت در تحقیقات (بحران بازتولید)، و تمایل رسانهها به اغراق، باقی میمانند.
 
جمعبندی نهایی
کتاب “هوش مصنوعی، روغن مار” یک ابزار حیاتی برای خروج از عصر “هوش مصنوعی به عنوان جادو” و ورود به عصر “هوش مصنوعی به عنوان ابزار مهندسی” است. نویسندگان با تکیه بر دانش عمیق فنی، به طور سیستماتیک افسانهها را در هم میشکنند و نشان میدهند که بزرگترین محدودیت هوش مصنوعی در ذات الگوریتمی آن است که به بهترین شکل، گذشته را تکرار میکند، نه اینکه آینده را خلق کند یا سیستمهای اجتماعی پیچیده را درک نماید. این کتاب فراتر از یک هشدار است؛ یک چارچوب عملی برای تصمیمگیری آگاهانه ارائه میدهد. این چارچوب بر لزوم ارزیابی سختگیرانه شواهد، تقاضا برای شفافیت و در اولویت قرار دادن ملاحظات اخلاقی و اجتماعی بر هیاهوی فناوری تأکید میکند. در نهایت، موفقیت یا شکست هوش مصنوعی به توانایی ما به عنوان مصرفکنندگان و سیاستگذاران بستگی دارد که هوش مصنوعی را به جای یک راه حل جهانی، به عنوان یک ابزار محدود اما مفید ببینیم و از پذیرش “روغن مار”هایی که تنها سوگیریها و نابرابریهای ما را تقویت میکنند، خودداری ورزیم.
.
دانلود کتاب: