پرش به محتوا پرش به پاورقی

هوش مصنوعی، روغن مار: هوش مصنوعی چه کارهایی می‌تواند انجام دهد، چه کارهایی نمی‌تواند

اشاره نویسنده به وعده های اغراق آمیز هوش مصنوعی است که به مثابه روغن مار است که برخی ادعای درمان همه دردها را با آن دارند. کتاب “روغن مار هوش مصنوعی” در بحبوحه طوفان تبلیغات و هیاهوی بی‌سابقه پیرامون فناوری‌های هوش مصنوعی (AI) منتشر شده است و هدف آن، زدودن غبار توهم از واقعیت‌های این تکنولوژی است.

نام انتشارات: Princeton University Press

تعداد صفحات: 360 صفحه

.

نمره کاربران (Amazon): 4.3 از 5

تعداد رأی‌دهندگان: 455 نفر

.

نمره کاربران (Goodreads): 3.92 از 5

تعداد رأی‌دهندگان: 1628 نفر

مقدمه

نویسندگان، که خود از دانشمندان برجسته کامپیوتر هستند، استدلال می‌کنند که بسیاری از محصولات و ادعاهایی که با برچسب هوش مصنوعی به بازار عرضه می‌شوند، در حقیقت چیزی جز «روغن مار» (Snake Oil) مدرن نیستند؛ محصولاتی که ادعاهای بزرگی دارند اما در عمل، یا کار نمی‌کنند یا مضر هستند و تنها به منافع مالی شرکت‌های بزرگ می‌انجامند. این کتاب نه تنها پتانسیل‌های واقعی هوش مصنوعی، مانند پیشرفت‌های اخیر در مدل‌های مولد (مانند ChatGPT)، را نادیده نمی‌گیرد، بلکه بر اهمیت تشخیص محدودیت‌های ذاتی آن و خطرات ناشی از به‌کارگیری نادرست آن در حوزه‌های حساس مانند عدالت کیفری، آموزش، استخدام، و پزشکی تأکید دارد. هدف اصلی نویسندگان این است که به عموم مردم، سیاست‌گذاران و رهبران کسب‌وکار بیاموزند که چگونه هوش مصنوعی را در چارچوب یک سرمایه‌گذاری با بازدهی نامطمئن ببینند و از آن‌ها بخواهند که قبل از اعتماد یا خرید یک محصول مبتنی بر هوش مصنوعی، شواهد و مدارک فوق‌العاده‌ای برای ادعاهای مطرح‌شده درخواست کنند. این رویکرد انتقادی، که بر پایه دانش فنی عمیق بنا شده، خواننده را به یک مصرف‌کننده و تصمیم‌گیرنده آگاه در عصر هوش مصنوعی تبدیل می‌کند.

ایده اصلی

ایده اصلی کتاب، ارائه یک چارچوب فکری سخت‌گیرانه و مبتنی بر شواهد برای تمایز قائل شدن بین قابلیت‌های واقعی هوش مصنوعی (AI that can work) و ادعاهای متورم و بی‌اساس (AI snake oil) است. نویسندگان بر این باورند که جامعه باید از تکیه بر «باور کورکورانه» و «هیاهوی فناوری» دست بردارد و سه نوع اصلی هوش مصنوعی یعنی هوش مصنوعی پیش‌بینی‌کننده (Predictive AI)، هوش مصنوعی مولد (Generative AI) و هوش مصنوعی تعدیل محتوا (Content Moderation AI) را بر اساس محدودیت‌های فنی و اجتماعی‌شان مورد تحلیل قرار دهد. این کتاب استدلال می‌کند که بسیاری از ادعاهای شکست‌خورده هوش مصنوعی ریشه در یک مشکل اساسی دارند: ناتوانی ذاتی در پیش‌بینی دقیق نتایج پیچیده انسانی و اجتماعی. مدل‌های هوش مصنوعی به بهترین شکل می‌توانند الگوهای موجود در داده‌های گذشته را تکرار کنند، اما در مواجهه با سیستم‌های پویای انسانی، فقدان شواهد قوی، سوگیری‌های نهادینه‌شده، و انگیزه‌های مالی شرکت‌ها، اغلب منجر به راه‌حل‌هایی می‌شوند که در بهترین حالت ناکارآمد و در بدترین حالت مضر و ناعادلانه هستند. هدف نهایی این است که هوش مصنوعی را از یک موجودیت مرموز و تقریباً جادویی، به یک ابزار مهندسی زمینی تبدیل کنیم که عملکرد آن باید به همان سختی ابزارهای سنتی ارزیابی و تأیید شود.

چگونه هوش مصنوعی پیش‌بینی‌کننده به خطا می‌رود

هوش مصنوعی پیش‌بینی‌کننده، که به منظور اتخاذ تصمیمات در حوزه‌های حیاتی مانند رتبه‌بندی اعتباری، استخدام و سیستم عدالت کیفری به کار می‌رود، قلب ادعاهای اغراق‌آمیز هوش مصنوعی مارافکن را تشکیل می‌دهد. این فصل توضیح می‌دهد که چگونه هوش مصنوعی در این زمینه‌ها نه تنها وعده‌های خود را عملی نمی‌کند، بلکه به دلیل چندین نقص ساختاری، وضعیت موجود را بدتر می‌سازد. اولاً، بسیاری از تصمیمات مهم زندگی تحت تأثیر این الگوریتم‌ها قرار می‌گیرند، اما یک پیش‌بینی خوب لزوماً منجر به یک تصمیم خوب نمی‌شود. هوش مصنوعی ممکن است با دقت بالایی رفتار گذشته را پیش‌بینی کند، اما تأثیر دخالت‌های انسانی یا تغییرات بافتار را در نظر نمی‌گیرد. ثانیاً، عدم شفافیت در نحوه عملکرد الگوریتم‌ها (اغلب به دلیل مالکیت خصوصی یا پیچیدگی فنی) انگیزه‌ای برای «بازی کردن با سیستم» ایجاد می‌کند؛ افراد یا سازمان‌ها یاد می‌گیرند که چگونه ورودی‌های خود را طوری تغییر دهند که خروجی‌های مطلوب هوش مصنوعی را به دست آورند، بدون اینکه واقعاً شایستگی یا تغییر مثبتی در دنیای واقعی رخ داده باشد. سوماً، هوش مصنوعی می‌تواند به افزایش نابرابری‌های موجود منجر شود. الگوریتم‌ها که بر داده‌های تاریخی و سوگیری‌دار آموزش دیده‌اند، به طور مداوم گروه‌های حاشیه‌نشین را به عنوان پرخطر شناسایی و آن‌ها را مجازات می‌کنند و به این ترتیب، چرخه نابرابری را تقویت می‌کنند. حتی زمانی که مدل‌ها در پیش‌بینی موفق هستند، اغلب این پیش‌بینی‌ها درباره افراد اشتباه است؛ یعنی مدل بر اساس یک معیار پراکسی نامناسب، در مورد یک فرد قضاوت می‌کند، که این امر منجر به اتوماسیون بیش از حد و سلب اختیار انسانی از فرآیند تصمیم‌گیری می‌شود. این فصل اصرار دارد که باید احتیاط بیشتری در برابر القای الگوریتم‌های پیش‌بینی‌کننده به فرآیندهای حیاتی انسانی به خرج داد، به‌خصوص زمانی که شواهد محکمی برای کارایی آن‌ها در مقیاس‌های عملی وجود ندارد.

چرا هوش مصنوعی نمی‌تواند آینده را پیش‌بینی کند؟

این فصل به تحلیل عمیق‌تر محدودیت‌های ذاتی هوش مصنوعی در پیش‌بینی‌های بلندمدت و پیچیده می‌پردازد و ریشه‌های شکست‌ها را در ماهیت سیستم‌های اجتماعی و انسانی جستجو می‌کند. اگرچه هوش مصنوعی در پیش‌بینی پدیده‌های پایدار (مانند آب و هوا) یا رویدادهای کوتاه‌مدت و محدود (مانند قیمت سهام در چند ثانیه آینده) می‌تواند موفق باشد، اما در پیش‌بینی نتایج مهم زندگی و رفتارهای اجتماعی با شکست مواجه می‌شود. نویسندگان با بررسی پروژه‌های بزرگی مانند چالش خانواده‌های شکننده (The Fragile Families Challenge) نشان می‌دهند که چگونه حتی با داده‌های غنی و تیم‌های برجسته، مدل‌های پیش‌بینی‌کننده عملکردی بهتر از پیش‌بینی‌های خط مبنا یا شهود انسانی نشان ندادند. دلیل این شکست‌ها در چند اصل کلیدی نهفته است: اول، پدیده‌های انسانی ذاتی پیچیده هستند و توسط متغیرهای بیشماری شکل می‌گیرند که اغلب در مجموعه داده‌ها ثبت نمی‌شوند. ثانیاً، دانش گذشته به سرعت منسوخ می‌شود. داده‌هایی که هوش مصنوعی بر آن‌ها آموزش دیده است، تصویری از گذشته هستند، اما با تغییر شرایط اقتصادی، فرهنگی و سیاسی، الگوی رفتاری مردم نیز تغییر می‌کند و مدل‌ها از کار می‌افتند. سوماً، بازخورد و مداخله انسانی پس از یک پیش‌بینی، خود می‌تواند نتیجه را تغییر دهد و پیش‌بینی اولیه را باطل سازد. به عنوان مثال، اگر هوش مصنوعی پیش‌بینی کند که یک فرد احتمال ارتکاب جرم بالایی دارد، این پیش‌بینی می‌تواند منجر به نظارت بیشتر و در نهایت، تأیید خودکار پیش‌بینی شود. این فصل تأکید می‌کند که به جای جستجوی یک مدل جادویی برای پیش‌بینی آینده، باید محدودیت‌های ذاتی هر پیش‌بینی را درک کرد و تنها به هوش مصنوعی‌هایی اعتماد کرد که در پیش‌بینی تجمعی (مانند پیش‌بینی نرخ جرم در یک شهر) موفق باشند، نه در پیش‌بینی فردی که عواقب بسیار جدی‌تری دارد.

مسیر طولانی به سوی هوش مصنوعی مولد

هوش مصنوعی مولد، با مدل‌های زبان بزرگ و ابزارهای تولید تصویر مانند ChatGPT و DALL-E، توجه عموم را به خود جلب کرده است و توانایی‌های جدیدی را در زمینه‌های خلاقیت، کدنویسی و تعامل ارائه می‌دهد. این فصل تاریخچه طولانی و اغلب فراموش‌شده هوش مصنوعی مولد را ردیابی می‌کند و نشان می‌دهد که این فناوری یک موفقیت ناگهانی نیست، بلکه نتیجه دهه‌ها نوآوری متوالی است که در نهایت به مدل‌های ترانسفورمر رسیده است. با وجود شگفتی‌های این مدل‌ها، نویسندگان بر محدودیت‌های کلیدی آن‌ها تأکید می‌کنند. مدل‌های مولد در واقع ماشین‌های بازسازی و تکرار الگو هستند که توانایی تولید محتوای جدید، روان و در ظاهر منطقی را دارند، اما فاقد درک واقعی یا توانایی استدلال قوی هستند. یکی از مشکلات جدی این حوزه، خودکارسازی محتوای بی‌ارزش (Automating Bullshit) است؛ هوش مصنوعی مولد می‌تواند با اطمینان کامل، اطلاعات نادرست یا بی‌معنی تولید کند (که به «توهم‌زایی» معروف است) که به دلیل روانی متن، تشخیص آن دشوار است. این امر، به ویژه در تولید متون تخصصی یا مقالات علمی، پتانسیل آسیب‌رسانی بالایی دارد. علاوه بر این، نگرانی‌های اخلاقی درباره تخصیص کار خلاق مطرح است، زیرا هوش مصنوعی از مجموعه داده‌های عظیمی از آثار هنری و متنی که توسط انسان‌ها خلق شده‌اند، برای آموزش استفاده می‌کند، بدون اینکه خالقان اصلی پاداشی دریافت کنند. همچنین، این فصل به خطرات عمیق‌تر مانند تولید دیپ‌فیک‌ها (Deepfakes)، کلاهبرداری و سوءاستفاده‌های بدخواهانه دیگر اشاره می‌کند. در نتیجه، در حالی که هوش مصنوعی مولد یک ابزار قدرتمند است، باید با آگاهی کامل از فقدان اصالت و درک زمینه در خروجی‌های آن استفاده شود و نباید به عنوان منبع نهایی حقیقت یا دانش تخصصی مورد اعتماد قرار گیرد.

آیا هوش مصنوعی پیشرفته یک تهدید وجودی است؟

یکی از بحث‌های داغ در فضای عمومی، این ایده است که هوش مصنوعی پیشرفته می‌تواند به یک تهدید وجودی (Existential Threat) برای بشریت تبدیل شود. این فصل با نگاهی عقلانی و مبتنی بر واقعیت‌های فنی، این ادعا را به چالش می‌کشد. نویسندگان، مفهوم نردبان کلیت (The Ladder of Generality) را مطرح می‌کنند که انواع هوش مصنوعی را بر اساس سطح قابلیت‌های آن‌ها طبقه‌بندی می‌کند، از هوش مصنوعی محدود به وظایف خاص (Narrow AI) تا هوش عمومی مصنوعی (AGI) که قابلیت‌های شناختی انسان را تقلید می‌کند. آن‌ها استدلال می‌کنند که بخش زیادی از هراس در مورد تهدید وجودی، ناشی از جهش‌های فرضی و اثبات‌نشده از یک سطح به سطح بعدی است. در واقعیت، هوش مصنوعی فعلی هنوز در انجام وظایف ساده‌ای که نیاز به درک قوی و زمینه اجتماعی دارند، با مشکل مواجه است و شواهد محکمی مبنی بر اینکه پیشرفت ناگهانی به سمت AGI یا هوش مصنوعی سرکش (Rogue AI) قریب‌الوقوع باشد، وجود ندارد. نویسندگان هشدار می‌دهند که تمرکز بیش از حد بر این تهدیدات دور و فرضی یک انحراف خطرناک از تهدیدات واقعی و ملموس است که هوش مصنوعی در حال حاضر ایجاد می‌کند، مانند تقویت نابرابری، سوگیری‌های الگوریتمی، و از دست دادن حریم خصوصی. یک رویکرد بهتر، به جای فراخوان برای ممنوعیت جهانی توسعه هوش مصنوعی، دفاع در برابر تهدیدات مشخص و فعلی است که توسط انسان‌هایی که از این ابزارها سوءاستفاده می‌کنند، به وجود می‌آیند. این فصل در نهایت نتیجه می‌گیرد که ما باید بیشتر نگران آن باشیم که مردم با هوش مصنوعی چه خواهند کرد، تا اینکه هوش مصنوعی به خودی خود چه خواهد کرد.

چرا هوش مصنوعی نمی‌تواند رسانه‌های اجتماعی را اصلاح کند؟

رسانه‌های اجتماعی با چالش‌های بزرگی مانند انتشار اطلاعات غلط، محتوای نفرت‌پراکن، و ترولینگ مواجه هستند و بسیاری شرکت‌های فناوری ادعا می‌کنند که هوش مصنوعی می‌تواند راه حل این مشکلات باشد. این فصل به طور قاطع استدلال می‌کند که هوش مصنوعی به دلیل هفت نقص عمده در تعدیل محتوا (Content Moderation) شکست خورده است و در واقع نمی‌تواند به طور مؤثر رسانه‌های اجتماعی را اصلاح کند. مشکل اصلی این است که ماهیت محتوای انسانی به شدت وابسته به بافتار (Context) است؛ هوش مصنوعی اغلب در درک مفاهیم ظریف، کنایه‌ها، طنز، یا بافت فرهنگی یک جمله برای قضاوت درباره مضر بودن آن ناتوان است. برای مثال، عبارتی که در یک گروه دوستانه قابل قبول است، ممکن است در یک مجمع عمومی توهین‌آمیز باشد. علاوه بر این، هوش مصنوعی در بهترین حالت می‌تواند گذشته را پیش‌بینی کند؛ یعنی الگوریتم‌ها برای تشخیص محتوایی آموزش دیده‌اند که قبلاً به عنوان مضر برچسب خورده است، اما در برابر خلاقیت و هوشمندی انسان‌های بدخواه که دائماً در حال یافتن راه‌های جدید برای دور زدن سیستم هستند، شکست می‌خورد. بخش سخت تعدیل محتوا، تعیین مرزهای دقیق بین آزادی بیان و آسیب‌رسانی است که یک تصمیم اخلاقی و حقوقی است و نه یک مسئله فنی قابل حل با الگوریتم. تلاش برای خودکارسازی این فرآیند، منجر به خطاهای فاجعه‌بار می‌شود که در آن، محتوای بی‌ضرر سانسور می‌شود (خطای نوع اول) و محتوای مضر باقی می‌ماند (خطای نوع دوم). بنابراین، راه‌حل‌های واقعی در این فضا، نیازمند تصمیم‌گیری‌های انسانی با پشتیبانی ابزارهای ساده‌تر و شفاف‌تر هستند، نه اتکای کورکورانه به سیستم‌های هوش مصنوعی ناموثق.

چرا افسانه‌های هوش مصنوعی باقی می‌مانند؟

این فصل به تحلیل روان‌شناختی و ساختاری دلایلی می‌پردازد که چرا علیرغم شواهد متعدد مبنی بر شکست‌های هوش مصنوعی، هیاهو و افسانه‌های پیرامون آن همچنان در جامعه و رسانه‌ها باقی مانده است. نویسندگان استدلال می‌کنند که هیاهوی هوش مصنوعی با هیاهوی فناوری‌های قبلی متفاوت است، زیرا از تصاویر قوی‌تر و ترسناک‌تری از آینده مانند ربات‌های قاتل یا هوش مافوق بشری استفاده می‌کند. در وهله اول، فرهنگ و تاریخچه جامعه هوش مصنوعی به خودی خود مملو از ادعاهای اغراق‌آمیز و پیش‌بینی‌های بلندمدت شکست‌خورده است که یک میراث نامطلوب برای ایجاد اعتماد به جای گذاشته است. دوم، شرکت‌ها انگیزه‌های کمی برای شفافیت دارند. فاش کردن شکست‌های هوش مصنوعی یا محدودیت‌های فنی آن، به اعتبار و ارزش بازار آن‌ها آسیب می‌رساند، بنابراین آن‌ها تمایل دارند که مدل‌ها را به عنوان جعبه‌های سیاه جادویی معرفی کنند. سوم، یک بحران بازتولید (Reproducibility Crisis) در تحقیقات هوش مصنوعی وجود دارد؛ بسیاری از مقالات تحقیقاتی که ادعای نتایج درخشانی دارند، قابل تکرار نیستند، زیرا کد، داده‌ها یا تنظیمات لازم منتشر نمی‌شود، که این امر مانع از اعتبارسنجی مستقل می‌شود. چهارم، رسانه‌های خبری اغلب در تلاش برای گزارش‌دهی جذاب، تمایل به ساده‌سازی و اغراق در مورد توانایی‌های هوش مصنوعی دارند و از پرداختن به جزئیات فنی و محدودیت‌های آن غفلت می‌ورزند. این عوامل با هم ترکیب می‌شوند و یک گرداب هیاهو ایجاد می‌کنند که در آن، ادعاهای بدون پشتوانه به راحتی پذیرفته می‌شوند و سرمایه‌گذاری‌ها به جای راه‌حل‌های واقعی، به سمت «روغن مار» هوش مصنوعی هدایت می‌شوند و تنها راه نجات، تقویت سواد هوش مصنوعی در میان مردم و تشویق به پرسشگری انتقادی است.

از اینجا به کجا می‌رویم؟

فصل پایانی کتاب، یک فراخوان عمل برای خروج از گرداب هیاهوی هوش مصنوعی و حرکت به سمت یک رویکرد عملی، مسئولانه و مبتنی بر شواهد است. نویسندگان تأکید می‌کنند که برای مهار خطرات هوش مصنوعی و بهره‌برداری مؤثر از پتانسیل‌های واقعی آن، نباید صرفاً به تنظیم مقررات دولتی یا خودتنظیمی شرکت‌ها اتکا کرد. در عوض، آن‌ها یک مسیر چهارگانه را پیشنهاد می‌کنند: اول، تمرکز بر موارد استفاده معقول؛ هوش مصنوعی باید در زمینه‌هایی به کار رود که قابلیت‌های آن (مانند تشخیص الگوهای درونی داده) واقعاً ارزشمند باشد، نه در مسائلی که نیاز به قضاوت انسانی، استدلال پیچیده یا درک زمینه فرهنگی دارند. دوم، تقاضا برای شواهد فوق‌العاده؛ هر ادعایی درباره یک محصول هوش مصنوعی باید با مدارک تجربی و تأییدشده پشتیبانی شود، به‌ویژه اگر قرار است در زمینه‌های حیاتی استفاده شود. سوم، سواد هوش مصنوعی را در اولویت قرار دهید؛ مردم باید اصول فنی هوش مصنوعی، از جمله نحوه کارکرد آن و محدودیت‌هایش، را درک کنند تا بتوانند فریب «روغن مار» را نخورند و در برابر آن موضع بگیرند. چهارم، مسئولیت‌پذیری را در فرآیند قرار دهید؛ حتی زمانی که هوش مصنوعی در سیستم‌های تصمیم‌گیری به کار می‌رود، باید مکانیسم‌های شفافی برای شناسایی خطاها، ارائه توضیح و امکان تجدیدنظر انسانی وجود داشته باشد. این فصل نتیجه می‌گیرد که آینده هوش مصنوعی نه توسط قابلیت‌های جادویی ماشین، بلکه توسط انتخاب‌های ما در مورد چگونگی و چرایی استفاده از آن شکل می‌گیرد.

نکات کلیدی

  • تشخیص روغن مار: هوش مصنوعی به سه دسته (پیش‌بینی‌کننده، مولد، تعدیل محتوا) تقسیم می‌شود و در بسیاری از ادعاها، به ویژه در مورد پیش‌بینی نتایج اجتماعی و انسانی، شکست می‌خورد.
  • محدودیت‌های پیش‌بینی: هوش مصنوعی در پیش‌بینی‌های فردی و بلندمدت شکست می‌خورد، زیرا سیستم‌های انسانی پویا، پیچیده و غیرقابل‌الگوریتمی هستند. پیش‌بینی‌های موفق اغلب در مورد گذشته یا داده‌های تجمعی صادق است.
  • توهم مولد: مدل‌های مولد (مانند LLMها) ابزارهای قدرتمندی برای تولید محتوای روان هستند، اما فاقد درک واقعی یا اصالت هستند و به آسانی “اطلاعات بی‌ارزش را خودکارسازی” می‌کنند.
  • تهدید وجودی در مقابل تهدید واقعی: نگرانی بیش از حد درباره هوش مصنوعی ابرقدرت و تهدیدات وجودی، حواس را از خطرات فعلی و ملموس منحرف می‌کند، مانند تقویت سوگیری‌ها و نابرابری‌ها توسط هوش مصنوعی پیش‌بینی‌کننده.
  • مسئله بافتار در رسانه‌های اجتماعی: هوش مصنوعی در تعدیل محتوا در رسانه‌های اجتماعی به شدت شکست می‌خورد، زیرا محتوای انسانی به شدت وابسته به بافتار، فرهنگ و ظرافت‌های زبانی است که الگوریتم‌ها قادر به درک آن‌ها نیستند.
  • فرهنگ هیاهو: افسانه‌های هوش مصنوعی به دلیل انگیزه‌های مالی شرکت‌ها، عدم شفافیت در تحقیقات (بحران بازتولید)، و تمایل رسانه‌ها به اغراق، باقی می‌مانند.

جمع‌بندی نهایی

کتاب “هوش مصنوعی، روغن مار” یک ابزار حیاتی برای خروج از عصر “هوش مصنوعی به عنوان جادو” و ورود به عصر “هوش مصنوعی به عنوان ابزار مهندسی” است. نویسندگان با تکیه بر دانش عمیق فنی، به طور سیستماتیک افسانه‌ها را در هم می‌شکنند و نشان می‌دهند که بزرگترین محدودیت هوش مصنوعی در ذات الگوریتمی آن است که به بهترین شکل، گذشته را تکرار می‌کند، نه اینکه آینده را خلق کند یا سیستم‌های اجتماعی پیچیده را درک نماید. این کتاب فراتر از یک هشدار است؛ یک چارچوب عملی برای تصمیم‌گیری آگاهانه ارائه می‌دهد. این چارچوب بر لزوم ارزیابی سخت‌گیرانه شواهد، تقاضا برای شفافیت و در اولویت قرار دادن ملاحظات اخلاقی و اجتماعی بر هیاهوی فناوری تأکید می‌کند. در نهایت، موفقیت یا شکست هوش مصنوعی به توانایی ما به عنوان مصرف‌کنندگان و سیاست‌گذاران بستگی دارد که هوش مصنوعی را به جای یک راه حل جهانی، به عنوان یک ابزار محدود اما مفید ببینیم و از پذیرش “روغن مار”هایی که تنها سوگیری‌ها و نابرابری‌های ما را تقویت می‌کنند، خودداری ورزیم.

.

دانلود کتاب:

پیام بگذارید