شانس یک آخرالزمان هوش‌مصنوعی چقدر است؟

وقوع فاجعه در تاریخ بشر امر رایجی بوده است. اما ظهور هوش مصنوعی در سال‌های اخیر گروه‌های مختلفی را به تکاپو انداخته است. بسیاری بر این باورند که زین پس فجایع بشری در ارتباط با هوش مصنوعی خواهد بود. در مطالعه‌ای که اخیرا در ایالات متحده برگزار شده است «کارشناسان» تخمین زدند که احتمال وقوع فاجعه تا سال ۲۱۰۰ حدود ۲۰ درصد و احتمال انقراض بشر ۶ درصد است. در برابر «پیش‌بینی‌کنندگان» احتمال وقوع فاجعه و انقراض را به ترتیب ۹ و یک درصد دانستند. البته باید در نظر داشت که هوش مصنوعی، حداقل در معنای فعلی این اصطلاح، بسیار جدید است. ظهور مدل‌های مدرن و قدرتمند یادگیری ماشینی به سال های اولیه دهه ۲۰۱۰ برمی‌گردد و این رشته هنوز به سرعت در حال توسعه است. به همین دلیل پیشرفت‌های زیادی به ویژه در زمینه رباتیک برای ظهور خطر هوش مصنوعی ضروری به‌نظر می‌رسد.

به گزارش آتیه آنلاین و به نقل از اکونومیست؛ در سال ۱۹۴۵، درست قبل از آزمایش اولین بمب هسته‌ای در صحرای نیومکزیکو، «انریکو فرمی»، یکی از فیزیکدانانی که به ساخت آن کمک کرده بود، با دانشمندان دیگر درباره این که «آیا گرمای بی‌سابقه انفجار، آتش‌سوزی هسته‌ای را در جو ایجاد می‌کند یا نه» شرط‌بندی کرد. اگر چنین است، آیا طوفان آتش تنها نیومکزیکو را نابود خواهد کرد؟ یا اینکه تمام دنیا را درخواهد نوردید؟ البته آن آزمایش آنقدرها هم که شرط‌بندی شیطنت‌آمیز «فرمی» انتظار داشت بی‌پروا نبود؛ «هانس بته»، فیزیکدان دیگری محاسبه کرده بود که چنین دوزخی تقریباً غیرممکن است.

این روزها، نگرانی در مورد «خطرات وجودی برای انسان» یعنی آنهایی که تهدیدی برای بشریت به عنوان یک گونه جانوری است، به دانشمندان نظامی محدود نمی‌شود. جنگ هسته‌ای؛ زمستان هسته‌ای؛ همه‌گیری (چه طبیعی، مانند کووید-۱۹، یا مهندسی شده)؛ برخورد یک سیارک و موارد دیگر می‌تواند اکثر یا تمام نژاد بشر را از بین ببرد.

جدیدترین تهدید روز فاجعه، هوش مصنوعی (ai) است. در ماه مه، گروهی از افراد برجسته در این زمینه نامه سرگشاده‌ای را امضا کردند که در آن بیان شده بود: «کنترل خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد».

اما چقدر منطقی است که نگران این فاجعه باشیم؟ در ۱۰ ژوئیه، گروهی از محققان، از جمله اقتصاددان بانک فدرال رزرو شیکاگو و دانشمند علوم سیاسی دانشگاه پنسیلوانیا، مقاله‌ای را منتشر کردند که سعی می‌کند با بررسی سیستماتیک به این سوال پاسخ دهد. دو نوع متخصص در نوشتن این مقاله دست داشتند؛ از یک سو متخصصان موضوع فاجعه یا «دامنه» در جنگ هسته‌ای، سلاح‌های زیستی، هوش مصنوعی و حتی خود انقراض حضور داشتند و از سوی دیگر، گروهی از «پیش‌بینی‌کنندگان آینده» بودند، کسانی که در زمینه‌های مختلف با پیش‌بینی‌های دقیق در مورد انواع موضوعات، از نتایج انتخابات تا شروع جنگ‌ها دست به پیش‌بینی می‌زنند.

وقت رفتن همه باهم خواهیم رفت

به حاضران در پژوهش دو نوعِ «فاجعه» و «انقراض» داده شد تا در آینده‌نگری خود در نظر بگیرند. «فاجعه» به عنوان چیزی تعریف می‌شود که تنها ۱۰ درصد از انسان‌ها در جهان یا حدود ۸۰۰ میلیون نفر را از میان خواهد برد. (برای مقایسه، تخمین زده می‌شود که جنگ جهانی دوم حدود ۳ درصد از جمعیت ۲ میلیاردی جهان را در آن زمان کشته باشد.) از سوی دیگر، «انقراض» به عنوان رویدادی تعریف شد که همه را از بین خواهد برد، به استثنای احتمالا ۵۰۰۰ نفر خوش‌شانس (یا بدشانسی) که زنده خواهند ماند.

از دو گروه خواسته شد تا پیش‌بینی‌هایی درباره احتمال وقوع انواع فاجعه ارائه دهند. به این منظور لیستی از رویدادهای آخرالزمانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته‌ای گرفته تا مسائل کوچک‌تر، مانند پیشرفت‌های بالقوه خطرناک هوش مصنوعی به متخصصان ارائه شد.

نتیجه اصلی این مطالعه در دو طیف کارشناس متخصص و پیش‌بینی‌کنندگان آینده متفاوت بود. «کارشناسان» تخمین زدند که احتمال وقوع فاجعه تا سال ۲۱۰۰ حدود ۲۰ درصد و احتمال انقراض بشر ۶ درصد است. در برابر «پیش‌بینی‌کنندگان» احتمال وقوع فاجعه و انقراض را به ترتیب ۹ و یک درصد دانستند.

متوسط پیش‌بینی‌کنندگان تخمین زدند که تا پایان قرن، ۲.۱ درصد احتمال وقوع فاجعه ناشی از هوش مصنوعی و ۰.۳۸ درصد احتمال انقراض ناشی از هوش مصنوعی وجود دارد. در مقابل، کارشناسان هوش مصنوعی، به ترتیب این احتمالات را ۱۲ و ۳ درصد دانستند. البته وقتی نوبت به بیماری‌های همه‌گیر رسید، پیش‌بینی‌کنندگان نسبت به کارشناسان بدبین‌تر بودند.

اگرچه هر دوی گروه‌ها در مورد اندازه دقیق خطر اختلاف نظر داشتند، اما هر دو گروه نگرانی‌های جنگ هسته‌ای و هوش مصنوعی را بیش از هر چیز دیگری می‌دانند. دَن مریلند، پیش‌بینی‌کننده‌ای که در این مطالعه شرکت کرد، می‌گوید: «یکی از دلایل نمایش قوی هوش مصنوعی این است که به‌عنوان «ضریب‌ نیرو» در خطرات دیگر مانند سلاح‌های هسته‌ای عمل می‌کند». مثلا در جنگ هسته‌ای یا برخورد سیارک، هوش مصنوعی (به شکل ربات‌های مسلح) می‌تواند انسان‌ها را مستقیماً بکشد. اما می‌تواند برای تیز کردن تبر یک جلاد دیگر نیز مفید باشد. به عنوان مثال، اگر انسان‌ها از هوش مصنوعی برای کمک به طراحی سلاح‌های زیستی قوی‌تر استفاده کنند، هوش مصنوعی هرچند غیرمستقیم، اما باز هم به فاجعه کمک می‌کند.

به نظر می‌رسید که پیش‌بینی‌کنندگان و کارشناسان هوش مصنوعی دیدگاه‌های بسیار متفاوتی درباره نحوه واکنش جوامع به آسیب‌های کوچک‌مقیاس ناشی از هوش مصنوعی داشته باشند. پیش‌بینی‌کنندگان به این فکر می‌کردند که این امر باعث می‌شود تا بررسی‌ها و مقررات جدی‌تر برای رفع مشکلات بزرگ‌تر در هوش مصنوعی انجام خواهد شد. در مقابل، کارشناسان حوزه به این نگرش تمایل داشتند که انگیزه‌های تجاری و ژئوپلیتیکی می‌تواند بیشتر از نگرانی‌های مربوط به ایمنی در هوش مصنوعی باشد.

همچنین پیش‌بینی‌کنندگان و کارشناسان دیدگاه‌های متفاوتی در مورد حدود هوش‌مصنوعی داشتند. به عبارت ساده، کشتن همه کار آسانی نیست. انجام این کار احتمالاً مستلزم میزان خاصی از توانایی برای تعامل با دنیای فیزیکی است که هوش مصنوعی فاقد آن است. احتمالاً قبل از رسیدن به این سطح تعامل با دنیای فیزیکی از طرف هوش مصنوعی، بشر به پیشرفت زیادی در رباتیک نیاز دارد.

کد خبر: 62067

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 4 + 10 =