پرش به محتوا پرش به پاورقی

کتاب اطلس هوش مصنوعی

یکی از کتاب های این حوزه، اطلس هوش مصنوعی – قدرت، سیاست و هزینه‌های جهانی هوش مصنوعی است.

عنوان کامل انگلیسی کتاب نیز Atlas of AI – Power, Politics, and the Planetary Costs of Artificial Intelligence است.

خلاصه کتاب «اطلس هوش مصنوعی»

1- مبنای مادی هوش مصنوعی: زمین به‌عنوان صنعتی استخراجی

این کتاب هوش مصنوعی می گوید رسانه‌های محاسباتی اکنون در فرآیندهای زمین‌شناسی و اقلیمی شرکت دارند، از تبدیل مواد زمین به زیرساخت‌ها و دستگاه‌ها تا تأمین انرژی این سیستم‌های جدید با ذخایر نفت و گاز.

وابستگی هوش مصنوعی به منابع. هوش مصنوعی یک مفهوم انتزاعی نیست، بلکه صنعتی عمیقاً مادی است که به استخراج منابع زمین وابسته است. از معادن لیتیوم در نوادا تا ذخایر مواد معدنی نادر در مغولستان داخلی، ایجاد سیستم‌های هوش مصنوعی نیازمند زنجیره تأمین وسیعی از مواد معدنی، انرژی و مواد است. این تقاضا به شیوه‌های استخراج مخرب محیط زیست دامن می‌زند که اغلب در بحث‌های پیشرفت فناوری نادیده گرفته می‌شود.

تأثیرات زیست‌محیطی. تقاضای بخش فناوری برای منابع به‌طور قابل توجهی به تخریب محیط زیست کمک می‌کند. استخراج مواد معدنی، آب‌های زیرزمینی را آلوده می‌کند، جنگل‌ها را نابود می‌سازد و جوامع را جابه‌جا می‌کند. علاوه بر این، ماهیت انرژی‌بر هوش مصنوعی، به‌ویژه در آموزش مدل‌های بزرگ، به افزایش ردپای کربن کمک می‌کند که با صنعت هوانوردی رقابت می‌کند.

نیاز به تغییر در نگرش. برای درک هزینه واقعی هوش مصنوعی، باید فراتر از وعده‌های انتزاعی پیشرفت فناوری برویم و پیامدهای مادی آن را در نظر بگیریم. این نیازمند پذیرش هزینه‌های زیست‌محیطی و انسانی مرتبط با استخراج منابع، مصرف انرژی و زنجیره‌های تأمین جهانی است که از سیستم‌های هوش مصنوعی پشتیبانی می‌کنند.

2- هزینه انسانی: استثمار کار در سیستم‌های هوش مصنوعی

هماهنگی اقدامات انسان‌ها با حرکات تکراری ربات‌ها و ماشین‌آلات خط تولید همواره شامل کنترل بدن‌ها در فضا و زمان بوده است.

وابستگی هوش مصنوعی به کار انسانی. با وجود روایت اتوماسیون، سیستم‌های هوش مصنوعی به شدت به کار انسانی وابسته‌اند که اغلب پنهان و با دستمزد پایین انجام می‌شود. این شامل کارگران دیجیتال که داده‌ها را برچسب‌گذاری می‌کنند، کارمندان انبار آمازون که سفارشات را انجام می‌دهند و ناظران محتوا که محتوای مضر را فیلتر می‌کنند، می‌شود. این کارگران برای عملکرد سیستم‌های هوش مصنوعی ضروری هستند، اما سهم آن‌ها اغلب نادیده گرفته می‌شود و شرایط کاری آن‌ها استثماری است.

زمان و کنترل. مدیریت زمان در استثمار کار در سیستم‌های هوش مصنوعی مرکزی است. کارگران تحت نظارت مداوم و ارزیابی الگوریتمی قرار دارند، به‌طوری‌که هر اقدام آن‌ها پیگیری و اندازه‌گیری می‌شود تا حداکثر کارایی حاصل شود. این وضعیت محیط کار استرس‌زا و غیرانسانی را ایجاد می‌کند، جایی که کارگران به‌عنوان ضمیمه‌های ماشین تلقی می‌شوند.

نیاز به همبستگی کارگران. برای مقابله با استثمار کار در سیستم‌های هوش مصنوعی، کارگران باید سازماندهی شوند و خواستار بهبود شرایط کاری، دستمزد عادلانه و کنترل بیشتر بر زمان و کار خود شوند. این نیازمند ایجاد همبستگی در بخش‌های مختلف صنعت هوش مصنوعی، از معدن‌کاران تا مهندسان، و به چالش کشیدن ساختارهای قدرتی است که استثمار را تداوم می‌بخشند.

3- داده به‌عنوان زیرساخت: محو زمینه و رضایت

تمام مواد دیجیتال قابل دسترسی عمومی، از جمله داده‌های شخصی یا بالقوه مضر برای برداشت به‌منظور ایجاد مجموعه‌های داده‌ای که برای تولید مدل‌های هوش مصنوعی استفاده می‌شوند، باز است.

استخراج داده. صنعت هوش مصنوعی به برداشت انبوه داده‌ها وابسته است، اغلب بدون رضایت یا توجه به حریم خصوصی. این شامل اطلاعات شخصی، تصاویر و متونی است که از اینترنت جمع‌آوری شده و برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود. این عمل داده‌ها را به‌عنوان یک منبع رایگان تلقی می‌کند و از پیامدهای اخلاقی و اجتماعی جمع‌آوری و استفاده از اطلاعات افراد بدون آگاهی یا اجازه آن‌ها غافل است.

از تصویر به زیرساخت. تبدیل تصاویر به داده، آن‌ها را از زمینه و معنا خالی می‌کند. عکس‌های شناسایی، سلفی‌ها و عکس‌های شخصی به نقاط داده‌ای تبدیل می‌شوند که برای آموزش سیستم‌های شناسایی چهره و سایر مدل‌های هوش مصنوعی استفاده می‌شوند. این محو زمینه می‌تواند به نتایج جانبدارانه و تبعیض‌آمیز منجر شود، زیرا سیستم‌های هوش مصنوعی یاد می‌گیرند که ویژگی‌های خاصی را با کلیشه‌های منفی مرتبط کنند.

نگرانی‌های اخلاقی. شیوه‌های کنونی جمع‌آوری و استفاده از داده‌ها در هوش مصنوعی نگرانی‌های اخلاقی عمیقی را به وجود می‌آورد. ما باید فراتر از این ایده برویم که داده‌ها یک منبع خنثی هستند و به دینامیک‌های قدرت ذاتی در جمع‌آوری، برچسب‌گذاری و استفاده از آن‌ها توجه کنیم. این نیازمند توسعه دستورالعمل‌ها و مقررات اخلاقی است که از حریم خصوصی افراد محافظت کرده و از سوءاستفاده از داده‌های آن‌ها جلوگیری کند.

4- طبقه‌بندی به‌عنوان قدرت: رمزگذاری تعصب در سیستم‌های هوش مصنوعی

با نگاهی به چگونگی ایجاد طبقه‌بندی‌ها، می‌بینیم که چگونه طرح‌های فنی سلسله‌مراتب‌ها را تحمیل کرده و نابرابری را تشدید می‌کنند.

طبقه‌بندی به‌عنوان یک عمل سیاسی. سیستم‌های هوش مصنوعی برای درک جهان به طبقه‌بندی وابسته‌اند. با این حال، دسته‌بندی‌های استفاده شده برای طبقه‌بندی داده‌ها نه خنثی و نه عینی هستند، بلکه بازتاب‌دهنده تعصبات و فرضیات سازندگان آن‌ها هستند. این تعصبات می‌توانند در سیستم‌های هوش مصنوعی رمزگذاری شوند و به نتایج تبعیض‌آمیز منجر شوند.

مسئله تعصب. نشان داده شده است که سیستم‌های هوش مصنوعی در حوزه‌های مختلف، از شناسایی چهره تا عدالت کیفری، تعصب نشان می‌دهند. این تعصبات اغلب الگوهای تاریخی تبعیض را منعکس می‌کنند و نابرابری‌های موجود را تداوم و تشدید می‌کنند. به‌عنوان مثال، سیستم‌های شناسایی چهره ممکن است برای افرادی با پوست تیره دقت کمتری داشته باشند که منجر به شناسایی نادرست و دستگیری‌های نادرست می‌شود.

فراتر از مباحث تعصب. برای حل مسئله تعصب در هوش مصنوعی، باید فراتر از اصلاحات فنی برویم و به ساختارهای اجتماعی و سیاسی زیرین که داده‌ها و الگوریتم‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی را شکل می‌دهند، بپردازیم. این نیازمند به چالش کشیدن دینامیک‌های قدرتی است که نابرابری را تداوم می‌بخشند و ترویج رویکردهای عادلانه‌تر و فراگیرتر در توسعه هوش مصنوعی است.

5- شناسایی احساسات: علم پرچالش خواندن احساسات

راه‌حل معمای Clever Hans، به‌نوشته‌ی Pfungst، هدایت ناخودآگاه از سوی پرسشگران اسب بود.

ادعای احساسات جهانی. سیستم‌های شناسایی احساسات بر این ایده استوارند که احساسات جهانی هستند و می‌توانند به‌طور قابل اعتمادی از روی حالات چهره شناسایی شوند. با این حال، این ادعا به شدت مورد مناقشه است و بسیاری از محققان بر این باورند که احساسات متغیرهای فرهنگی و وابسته به زمینه هستند.

تأثیر پل اکرمن. کارهای روانشناس پل اکرمن در شکل‌گیری حوزه شناسایی احساسات تأثیرگذار بوده است. تحقیقات اکرمن که از دهه 1960 آغاز شد، ادعا می‌کرد که مجموعه‌ای از احساسات پایه‌ای را شناسایی کرده است که به‌طور جهانی ابراز و شناسایی می‌شوند. با این حال، روش‌ها و یافته‌های او به‌دلیل عدم دقت علمی به شدت مورد انتقاد قرار گرفته است.

نگرانی‌های اخلاقی. با وجود تردیدهای علمی در مورد شناسایی احساسات، این ابزارها به‌سرعت در زمینه‌های مختلف با ریسک بالا، از استخدام تا پلیس، به کار گرفته می‌شوند. این موضوع نگرانی‌های اخلاقی جدی را به وجود می‌آورد، زیرا افراد ممکن است بر اساس ارزیابی‌های نادرست و غیرقابل اعتماد از وضعیت عاطفی خود قضاوت و مورد تبعیض قرار گیرند.

6-هوش مصنوعی به‌عنوان ابزاری از قدرت دولتی: نظارت و کنترل

گذشته و حال نظامی هوش مصنوعی، شیوه‌های نظارت، استخراج داده و ارزیابی ریسک را که امروزه مشاهده می‌کنیم، شکل داده است.

ریشه‌های نظامی هوش مصنوعی. توسعه هوش مصنوعی به شدت تحت تأثیر تأمین مالی و اولویت‌های نظامی قرار دارد. این موضوع بر تمرکز این حوزه بر نظارت، استخراج داده و ارزیابی ریسک تأثیر گذاشته و به پیامدهای اخلاقی و اجتماعی توجهی نمی‌کند.

آرشیو اسنودن. آرشیو اسنودن نشان می‌دهد که تا چه حد نهادهای اطلاعاتی از هوش مصنوعی برای جمع‌آوری و تحلیل داده‌ها به‌صورت انبوه استفاده کرده‌اند. این ابزارها که زمانی برای مقاصد امنیت ملی اختصاص داده شده بودند، اکنون به‌طور داخلی به کار گرفته می‌شوند و مرزهای بین نظارت نظامی و غیرنظامی را محو می‌کنند.

استراتژی سومین جبران. استراتژی سومین جبران ارتش ایالات متحده به‌دنبال حفظ تسلط خود در هوش مصنوعی با همکاری با بخش فناوری است. این موضوع منجر به رابطه نزدیکی بین ارتش و سیلیکون‌ولی شده است، به‌طوری‌که شرکت‌های فناوری ابزارها و تخصص‌های هوش مصنوعی را به وزارت دفاع ارائه می‌دهند.

7- خانه‌های بزرگ هوش مصنوعی: متمرکز کردن قدرت و گسترش نابرابری‌ها

این سیاست‌ها توسط خانه‌های بزرگ هوش مصنوعی هدایت می‌شوند که شامل چندین شرکت است که بر محاسبات سیاره‌ای در مقیاس بزرگ تسلط دارند.

تمرکز قدرت. صنعت هوش مصنوعی تحت تسلط تعداد کمی از شرکت‌های فناوری قدرتمند است. این شرکت‌ها مقادیر زیادی داده، منابع و تخصص را کنترل می‌کنند و به آن‌ها مزیت قابل توجهی در شکل‌دهی به توسعه و استقرار سیستم‌های هوش مصنوعی می‌دهد.

گسترش نابرابری‌ها. تمرکز قدرت در دستان چند غول فناوری، نابرابری‌های موجود را تشدید می‌کند. سیستم‌های هوش مصنوعی اغلب به‌گونه‌ای طراحی می‌شوند که به منافع این شرکت‌ها خدمت کنند و فاصله بین ثروتمندان و فقیران، قدرتمندان و حاشیه‌نشینان را بیشتر کنند.

نیاز به مقررات. برای مقابله با تمرکز قدرت در صنعت هوش مصنوعی، به مقررات قوی‌تری نیاز داریم که رقابت را ترویج کرده، حریم خصوصی را محافظت کند و اطمینان حاصل کند که سیستم‌های هوش مصنوعی به‌نحوی استفاده می‌شوند که به نفع جامعه به‌طور کلی باشد. این نیازمند به چالش کشیدن تسلط غول‌های فناوری و ترویج اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

8- به چالش کشیدن منطق‌ها: به‌سوی جنبش‌های متصل برای عدالت

با تغییر شرایط زمین، باید خواسته‌های حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی را به‌طور همزمان شنید.

جنبش‌های متصل. برای حل مشکلات بنیادی هوش مصنوعی، نیاز به ارتباط مسائل قدرت و عدالت داریم. این شامل حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی است. با همکاری، این جنبش‌ها می‌توانند به چالش ساختارهای قدرتی بپردازند که هوش مصنوعی در حال حاضر تقویت می‌کند.

سیاست‌های رد. ما باید ایده‌ای را که هوش مصنوعی اجتناب‌ناپذیر است و هیچ انتخابی جز پذیرش پیامدهای آن نداریم، رد کنیم. این نیازمند به چالش کشیدن روایت‌های تعیین‌گرایی فناوری و خواستار اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

چشم‌انداز متفاوت. با ارتباط مسائل قدرت و عدالت، می‌توانیم چشم‌انداز متفاوتی برای هوش مصنوعی ایجاد کنیم، چشم‌اندازی که به رفاه انسانی، پایداری زیست‌محیطی و برابری اجتماعی اولویت می‌دهد. این نیازمند به چالش کشیدن منطق‌های استخراجی هوش مصنوعی و ساختن آینده‌ای عادلانه‌تر و پایدارتر برای همه است.

کتاب کامل:

پیام بگذارید