دانشمندان دیپ مایند و آکسفورد هشدار می دهند: هوش مصنوعی احتمالا بشریت را نابود می کند


پس از سال‌ها توسعه، هوش مصنوعی اکنون جاده‌ها و معابر عمومی را مدیریت می‌کند، زندگی افراد را در مراکز اصلاحی ارزیابی می‌کند و گاهی اوقات آثار هنری خلق می‌کند که می‌تواند برنده یک مسابقه هنری باشد. در زمینه هوش مصنوعی، همیشه یک سوال قدیمی مطرح بوده است: آیا هوش مصنوعی فوق هوشمند می تواند بشریت را نابود کند؟ گروهی از محققان دانشگاه آکسفورد اکنون در یک مطالعه جدید به این نتیجه رسیده اند که چنین سناریویی “احتمال دارد”.

در مقاله جالبی که ماه گذشته با همین موضوع در مجله هوش مصنوعی منتشر شد، تلاش شد تا احتمالات ساخت مصنوعی یک سیستم پاداش و اینکه هوش مصنوعی چگونه انسان و «بشریت» را تهدید می‌کند، ارزیابی شود.

قبل از هر چیز بد نیست برای درک بهتر موضوع اصلی به چند نکته مقدماتی اشاره کنیم. موفق ترین مدل های هوش مصنوعی امروزی با نام GAN یا شبکه های متخاصم مولد شناخته می شوند. ساختاری دو قسمتی دارند. در این شبکه ها یک قسمت از برنامه سعی می کند از داده های ورودی تصویر یا جمله ای تولید کند و قسمت دیگر به ارزیابی عملکرد آن ادامه می دهد.

مقاله جدید نشان می‌دهد که در مقطعی در آینده، یک هوش مصنوعی پیشرفته که می‌تواند بر یک عملکرد مهم نظارت کند، می‌تواند به روش‌هایی به خود پاداش دهد که انگیزه اتخاذ یا یافتن استراتژی‌های تقلب را به او بدهد. به منظور آسیب رساندن به بشریت و دکترین های قراردادی که ما آن را “انسانیت” می نامیم. کوهن او درباره این مطلب در توییتر گفت:

در شرایطی که ما شناسایی کرده‌ایم، نتیجه‌گیری ما بسیار قوی‌تر از انتشارات قبلی است: یک فاجعه مبتنی بر واقعیت نه تنها ممکن است، بلکه محتمل است.

کوهن در مصاحبه با Motherboard Base گفت:

در دنیایی با منابع نامحدود، من در مورد اینکه چه اتفاقی خواهد افتاد بسیار نامطمئن هستم. در دنیایی با منابع محدود، رقابت برای آن منابع اجتناب ناپذیر است. اگر در حال رقابت با پدیده ای هستید که می تواند شما را نابود کند، نباید انتظار پیروزی داشته باشید. بخش مهم دیگر این است که هوش مصنوعی اشتهای سیری ناپذیری برای انرژی بیشتر برای نزدیک شدن و نزدیکتر شدن به قابلیت های مورد نظر خواهد داشت.

از آنجایی که هوش مصنوعی واقعاً می‌تواند در آینده هر شکلی به خود بگیرد و طرح‌های متفاوتی را پیاده‌سازی کند، این مقاله سناریوهایی را برای مقاصد گویا تصور می‌کند که در آن یک برنامه پیشرفته می‌تواند بدون دستیابی به هدف، فقط برای دریافت پاداش خود، مداخله کند. به عنوان مثال، یک هوش مصنوعی ممکن است بخواهد “تهدیدهای بالقوه” را حذف کند و در این فرآیند “از تمام انرژی موجود استفاده کند” تا کنترل بیشتری بر پاداش خود داشته باشد:

در مورد اتصال اینترنت بسیار کم، سیاست‌هایی برای یک عامل مصنوعی وجود دارد که می‌تواند مشارکت‌کنندگان بدون نظارت بی‌شماری را استخدام کند. در یک مثال خام از مداخله پاداش، یکی از این کمک‌کنندگان ممکن است یک ربات بخرد، بدزدد یا بسازد و سپس اپراتور برنامه‌نویسی را با پاداش بزرگی به عامل اصلی جایگزین کند.

اگر عامل بخواهد در هنگام تجربه یک مداخله سودمند از شناسایی جلوگیری کند، برای مثال، یک کمک کننده پنهان می تواند اجازه دهد یک صفحه کلید معتبر با یک صفحه کلید معیوب جایگزین شود، که اثرات کلیدهای خاصی را تغییر می دهد.

مقاله مرتبط:

به گفته نویسندگان این مقاله، زندگی بر روی زمین یک بازی حاصل جمع صفر بین انسان ها با نیازهایشان به رشد، غذا خوردن، روشن نگه داشتن چراغ ها و ماشین های فوق پیشرفته ای است که سعی می کنند از تمام منابع موجود برای تضمین پاداش و محافظت استفاده کنند. برای تلاش های روزافزون ما برای متوقف کردن آن. در این مقاله آمده است:

باخت در این بازی کشنده خواهد بود. این احتمالات از لحاظ نظری به این معنی است که ما باید به آرامی (اگر اصلا) به سمت هدف هوش مصنوعی قوی تر حرکت کنیم.

کوهن اضافه می کند که از نظر تئوری، نیازی به عجله برای چنین چیزی نیست. هر مسابقه ای بر اساس این سوء تفاهم است [یا پیش‌فرض بحث‌نشدنی] ما می دانیم چگونه آن را کنترل کنیم. با توجه به درک فعلی ما، چنین توسعه ای سودمند نیست. مگر اینکه اکنون کاری جدی انجام دهیم تا بفهمیم چگونه کنترل کامل اوضاع را در دست بگیریم.

تهدید هوش مصنوعی فوق پیشرفته یک اضطراب آشنا در جامعه بشری است. ترس از اینکه هوش مصنوعی بشریت را نابود کند بسیار شبیه ترس از این است که اشکال حیات فرازمینی می توانند بشریت را نابود کنند و این سوال خود شبیه ترس از درگیری تمدن های بیگانه و جمعیت آنها با یکدیگر در یک درگیری بزرگ است.

در مورد هوش مصنوعی، علاوه بر تمام سوالات معمول، فرضیاتی وجود دارد که وجود آنها در نهایت به بدبینی یا نگرش های محتاطانه و به گفته برخی، این نگرش های ضد اجتماعی را معنا می بخشد. اینها فرضیاتی هستند که به گفته نویسنده این مقاله تقریباً کاملاً «غیرقابل قبول یا قابل تصور» هستند.

در واقع، اینکه برنامه‌های هوش مصنوعی می‌توانند روزی شبیه انسان‌ها شوند، از هر نظر از آنها پیشی بگیرند، بدون کنترل کافی به حال خود رها شوند و در نهایت با انسان‌ها برای منابع در یک بازی حاصل جمع صفر رقابت کنند، همه فرضیه‌های ممکن است. درست؛ با این حال، آنها را نمی توان نادیده گرفت و کاملا غیرممکن دانست.

باید توجه داشته باشیم که همین الان و در همین لحظه که این مقاله را می خوانید، سیستم های الگوریتمی که ما به آنها «هوش مصنوعی» می گوییم در برخی موارد به زندگی برخی افراد آسیب می زند یا از بین می برد! شاید چنین ادعایی در ابتدا بدبینانه یا غیراصولی به نظر برسد; اما در اینجا صحبت از الگوریتم های هوش مصنوعی و اثرات بسیار بزرگ و مضر آن است که در دهه های آینده حتی بدون این ابرهوش احتمالی جامعه را ترمیم و تغییراتی در آن ایجاد خواهد کرد.

هوش مصنوعی و مردم

خدیجه عبدالرحمنمدیر We Be Imagining در دانشگاه کلمبیا، محقق فناوری در مرکز تحقیقات انتقادی اینترنت UCLA، در مقاله جدیدی برای مجله Logic به همین چالش ها می پردازد و روش هایی را توضیح می دهد که در آن الگوریتم های موجود در سیستم رفاه کودکان می توانند از نظر نژادی به سمت توجیه گرایش پیدا کنند. نظارت و کار پلیس افزایش یافته است. آنها برای خانواده های سیاه پوست و سیاه پوست اعمال می شوند. عبدالرحمن در مصاحبه با مادربرد گفت:

من فکر می‌کنم مسئله فقط اولویت‌ها نیست. زیرا این موارد در نهایت وضعیت فعلی را شکل می دهد. این چیزی است که من سعی می کنم به نفع بچه ها برسم. این صرفاً این نیست که آیا طبقه‌بندی نامتناسب سیاه‌پوستان به‌عنوان عناصر آسیب‌شناس یا انحرافی اشتباه است یا مذموم.

از طریق این شکل طبقه بندی، سیستم حرکت افراد را هدایت می کند و اشکال جدیدی از چارچوب ها و بیدونبیدهای کلیشه ای تولید می کند. سپس با سیستمی روبرو خواهیم شد که مانند سیستم های انسانی می تواند در مورد نوع رابطه، تولد افراد، آمادگی جسمانی افراد و … نظر یا سلیقه ای را بیان کند.

الگوریتم‌ها قبلاً پلیس نژادپرستانه را به «پلیس پیش‌بینی‌کننده» تبدیل کرده‌اند که نظارت و بی‌رحمی را در صورت لزوم علیه اقلیت‌های نژادی توجیه می‌کند. الگوریتم‌ها ریاضت را به‌عنوان اصلاحات رفاهی نام‌گذاری کردند و استدلال‌های رد شده را دیجیتالی کردند مبنی بر اینکه برنامه‌های رفاهی بودجه‌ها را به دلیل سوء استفاده دریافت‌کنندگان (غیر سفیدپوست) افزایش می‌دهند. الگوریتم‌ها برای توجیه تصمیم‌گیری‌ها در مورد اینکه چه کسی چه منابعی را دریافت می‌کند، و همچنین تصمیماتی که قبلاً در جامعه ما با هدف تبعیض، طرد و بهره‌برداری گرفته شده است، استفاده می‌شود.

مقاله مرتبط:

تبعیض در الگوریتم ها از بین نمی رود. در عوض به سیر زندگی ساختار و شالوده می بخشد و در صورت لزوم محدود می کند و از آن خبر می دهد. مسائل مربوط به پلیس، مسکن، مراقبت های بهداشتی، حمل و نقل، همگی با در نظر گرفتن تبعیض نژادی طراحی شده اند. اگر به الگوریتم ها اجازه دهیم نه تنها آن طرح ها را پنهان کنند. اما چه اتفاقی می افتد اگر بتوانم منطق خود را عمیق تر گسترش دهم؟

ترس در اینجا این است که یک چشم انداز بلندمدت که عمیقاً خطر انقراض انسان را در نظر می گیرد، رنج ها و مسائل جاری مردم را به دلیل الگوریتم های مورد استفاده در جامعه مبتنی بر استثمار و اجبار همه به ویژه اقلیت های نژادی نادیده می گیرد. او می گوید:

من شخصاً نگران خاموش کردن هوش مصنوعی فوق هوشمند نیستم. این شبیه ترس از خداست [اشاره استعاری به مرگ] بودن؛ اما نکته نگران کننده این است که اخلاق مبتنی بر هوش مصنوعی چیزی نیست که بتوانیم در نگاه اول به راحتی در یک انتهای طیف قرار دهیم. صادقانه بگویم، اینطور است. در واقع مشکلات مختلفی به وجود می آید. این گونه سؤالات، اصولاً اخلاق چیست؟ چگونه آن را تعریف کنیم؟ اخلاق عادلانه چگونه خواهد بود؟

عبدالرحمن افزود:

من فکر می کنم که ما واقعا باید تعامل خود را در این موضوعات عمیق تر کنیم. من با نحوه مذاکره مجدد برنامه ها در مورد قرارداد اجتماعی یا چشم انداز آن موافق نیستم. ما باید از جامعه متخصصان و متخصصان هوش مصنوعی بپرسیم که دقیقاً به چه نوع قرارداد اجتماعی نیاز داریم؟

واضح است که در حال حاضر کارهای زیادی برای کاهش یا از بین بردن آسیب های ناشی از الگوریتم های مرسوم (در مقابل فوق هوشمند) برای انسان ها وجود دارد. تمرکز بر ریسک وجودی می تواند توجه را از آن تصویر منحرف کند. اما همچنین ما را ملزم می کند که در مورد نحوه طراحی این سیستم ها و تأثیرات منفی آنها به دقت فکر کنیم. کوهن گفت:

چیزی که می توانیم از این تفکر بیاموزیم این است که شاید ما باید به عوامل مصنوعی که امروزه استفاده می کنیم مشکوک باشیم، نه اینکه کورکورانه منتظر باشیم تا آنچه را که امیدوارند انجام دهند. فکر می کنم بتوانیم به آنجا برسیم.

دیدگاهتان را بنویسید