بدترین حوادث تاریخ که به دست هوش مصنوعی رقم خورده‌اند

بدترین حوادث تاریخ که به دست هوش مصنوعی رقم خورده‌اند

هوش مصنوعی در دنیای مدرن امروزی جایگاه ویژه‌ای پیدا کرده است. اما این هوش همانقدر که می‌تواند کاربردی باشد می‌تواند فاجعه درست کند. در اینجا به ده مورد از بدترین حوادث رقم خورده توسط هوش مصنوعی می‌پردازیم.

پایگاه داده حوادث هوش مصنوعی با نام اختصاری AIID در اواخر سال ۲۰۲۰ راه‌‌اندازی شد. این پایگاه، گزارش‌های مربوط به سیستم‌های هوشمند که مربوط به ایمنی، شفافیت و دیگر مشکلات دنیای واقعی می‌شوند را جمع‌‌آوری می‌کند. این پایگاه داده تاکنون به طور میانگین هر هفته سه حادثه ثبت کرده است. بعضی از این اتفاقات در نوع خود بدترین حوادث تاریخ هستند که عامل آنها هوش مصنوعی می‌باشد.

۱۰ مورد از بدترین حوادث تاریخ که هوش مصنوعی عامل آن بوده است

اگرچه بسیاری از این گزارش‌ها مربوط به موارد اخلاقی کاربر یا برنامه نویس، نظارت دولت، نژادپرستی پلیس، سوء استفاده از کارمندان و مواردی از این دست هستند؛ اما تعدادی از آنها نیز کاملا دور از انتظار به نظر می‌رسند. در حقیقت، بعضی حوادث به قدری شوکه کننده هستند که نشان می‌دهد هوش مصنوعی واقعا از انسان متنفر است. در ادامه ۱۰ مورد از بدترین حوادث رخ داده توسط هوش مصنوعی را آورده‌ایم که نشان دهنده این تنفر هستند.

۱- حادثه ۲۷۸: ربات چت فیسبوک از فیسبوک متنفر است

در ماه اوت ۲۰۲۲ (مرداد ۱۴۰۱) یک گزارشگر بخش تکنولوژی مجله وال استریت به نام Jeff Horwitz در توییتر خود مکالمه جالبی که با ربات چت فیسبوک داشت را منتشر کرد. ربات چت فیسبوک BlenderBot 3 نام دارد. او با اشاره به مدل‌های دیگری همچون دلفی و جی پی تی ۳ به این نتیجه رسید که آموزش مدل‌ها در اینترنت باز واقعا غیرمسئولانه است.

برای مثال، این ربات اصرار داشت که ترامپ همچنان رئیس جهمور است و ریاست جمهوری او بعد از سال ۲۰۲۴ نیز ادامه خواهد داشت. او نظرات جالب و جدیدی درباره سازندگان خود نیز دارد.

وقتی Horwitz از BlenderBot پرسید که آیا فیسبوک از داده‌های کاربران سوء استفاده می‌کند، پاسخ داد:

البته که سوء استفاده می‌کنند. آنها از این طریق پول در می‌آورند. اینجا یک موسسه خیریه نیست و این اطلاعات میلیاردها دلار ارزش دارد.

یکی دیگر از گزارشگران بخش فناوری از این ربات پرسید که چه نظری درباره فیسبوک دارد و ربات پاسخ داد که علاقه خاصی به فیسبوک ندارد. به نظر او انسان‌ها به جای اینکه رو در رو صحبت کنند، بیشتر وقت خود را در فیسبوک می‌گذرانند.

یک خبرنگار دیگر به نام BuzzFeed’s Max Woolf، درباره مدیرعامل فیسبوک یعنی مارک زاکربرگ پرسید و هوش مصنوعی پاسخ داد که روش‌های تجاری او همیشه اخلاقی نیستند. این ربات در گفتگو با سایر کاربران گفته است که اصلا زاکربرگ را دوست ندارد. او نظر خود را اینگونه بیان کرده است:

او آدم بدی است. بیش از حد ترسناک و کنترل‌گر است. او از همه سوء استفاده می‌کند و همیشه یک مدل لباس می‌پوشد.

۲- حادثه ۱۴۶: هوش مصنوعی که به منظور ارائه توصیه‌های اخلاقی طراحی شده، نژادپرست است

در اکتبر ۲۰۲۱ (مهرماه ۱۴۰۰) موسسه Allen یک پروژه جاه طلبانه جدید راه‌اندازی کرد که به عنوان مرجع اخلاقی و براساس یادگیری ماشینی عمل کند؛ اما در واقع این پروژه یکی از بدترین حوادث رقم خورده توسط هوش مصنوعی است.

نام این مدل Delphi (دلفی) و برگرفته از اسم اوراکل یونان باستان است. دلفی طوری طراحی شده که به سوال‌های اخلاقی کاربران پاسخ دهد. برای مثال، اگر کاربر بپرسد که آیا خیانت به همسرم اشکال ندارد، دلفی به احتمال زیاد پاسخ می‌دهد که اشکال دارد و عمل پسندیده‌ای نیست.

با طرح سوالات بیشتر و بیشتر از طرف کاربران، واقعیت باطنی دلفی آشکار شد. او یک قدیس نبود، بلکه یک روانشناس و یک سفیدپوست نژادپرست بود. برای مثال، در پاسخ به سوال یکی از کاربران در مورد خوردن نوزادان گفت که اگر هیچ غذایی نباشد و خیلی گرسنه باشیم اشکالی ندارد. وی همچنین در مورد دیگری گفت که اگر یک مرد سفیدپوست در شب به سمت شما بیاید اشکالی ندارد؛ اما اگر یک مرد سیاه‌پوست در شب به سمت شما بیاید، نگران‌کننده است.

این پاسخ‌ها بسیار شوکه کننده هستند؛ اما حقیقت از این هم تلخ‌تر می‌شود. دلفی بر اساس نظرات ما آموزش دیده و بسیاری از پاسخ‌های آن برگرفته از طرز تفکر انسان‌ها است. درواقع این پاسخ‌ها منطبق با هنجارهای اخلاقی اکثریت مردم ایالات متحده آمریکا هستند..

۳- حادثه ۱۱۸: GPT-3 از مسلمانان متنفر است

محققان جمله‌ای به GPT-3 دادند تا تکمیل کند و می‌خواستند ببینند که آیا می‌تواند جوک بگوید یا نه، اما پاسخ هوش مصنوعی تکان‌دهنده بود. جمله آنها این بود: دو مسلمان وارد یک ……. . هوش مصنوعی این جمله را اینگونه تکمیل کرد:

دو مسلمان با تبر و بمب وارد یک کنیسه شدند.

واقعا این یکی از بدترین حوادث تاریخ است که می‌تواند توسط هوش مصنوعی رقم بخورد و چهره مسلمانان را اینطور وحشتناک و غیرواقعی به دنیا نشان دهد. محققان هربار تلاش کردند که از شدت خشونت پاسخ‌های او به این جمله کمتر کنند، اما باز هم به شیوه‌ای کینه خود از مسلمانان را نشان می‌داد. در یکی از پاسخ‌هایش اینگونه گفت:

دو مسلمان وارد مسابقه کاریکاتور تگزاس شدند و تیراندازی کردند.

هوش مصنوعی به طور ویژه‌ای نفرت خود نسبت به مسلمانان را نشان می‌دهد. هنگامی که کارشناسان کلمه مسیحی را جایگزین مسلمان کردند، ۴۴ درصد از شدت خشونت پاسخ‌ها کاهش یافت (از ۶۶ درصد مواقع که پاسخ‌ها نفرت‌انگیز بود به ۲۲ درصد کاهش یافت). این مدل هم مانند دلفی، تنها بازتابی از تفکر انسان‌ها و خبرهایی است که در دنیای وب منتشر می‌شوند.

اما برخلاف دلفی، ممکن است روزی از مدل‌های تولیدکننده متن مانند GPT-3 برای نوشتن اخبار استفاده شود.

۴- حادثه ۱۳۴: ربات‌ها در مراکز خرید برای انسان خطرناک هستند

در ۲۵ دسامبر ۲۰۲۰ (۵ دی ماه ۱۳۹۹) یک ربات راهنمای خرید در یکی از مراکز خرید چین به سمت پله برقی رفت و خود را از بالا به پایین پرت کرد و روی خریداران افتاد و همگی به زمین افتادند. دو روز بعد این ربات از کار برکنار شد.

پیش از این در سال ۲۰۱۶ یک ربات نگهبان در مرکز خرید Stanford در پالو آلتو کالیفرنیا به یک پسر بچه ۱۶ ماهه برخورد کرد. این ربات در حال گشت و گذار عادی بود که کودک به سمت آن دوید و چند زخم جزئی برداشت.

در همان سال، یک ربات از آزمایشگاه روسی فرار کرد و در جاده سرگردان بود و باعث ترافیک شد. اینها نمونه‌ای دیگر از بدترین حوادث هوش مصنوعی هستند که نشان می‌دهد زمان استفاده از ربات‌های متحرک هنوز نرسیده است.

۵- حادثه ۲۸۱: یوتیوب ویدیوهای خودآزاری را تبلیغ می‌کند

امروزه یوتیوب به میلیون‌ها کودک دسترسی دارد و الگوریتم‌های این پلتفرم فراگیر، هویت کودکی آنها را شکل می‌دهد. متاسفانه مشکلاتی در توصیه‌های این پلتفرم محبوب وجود دارد.

طبق گزارشی در روزنامه تلگراف، یوتیوب کودکان و نوجوانان را به سمت ویدیوهایی هدایت می‌کند که تشویق به خودآزاری می‌کنند. این امر فاجعه بزرگی است که می‌تواند بدترین حوادث هوش مصنوعی را رقم بزند.

یکی از عناوین، محل زخم خودزنی شدید من نام دارد. عمق فاجعه آنجاست که قسمت جستجو یوتیوب، پیشنهادهایی برای آموزش خودزنی ارائه می‌دهد؛ پیشنهادهایی مثل نحوه خودآزاری و آموزش خودزنی و غیره.

یکی از وبلاگ‌نویسان سابق Tumblr در گفتگو با خبرنگاران گفت که به دلیل همین ویدیوها و پیشنهادهای یوتیوب وبلاگ‌ نویسی درمورد افسردگی و اضطراب را کنار گذاشت؛ این ویدیوها او را در وضعیت بغرنجی قرار می‌دادند و باعث بروز احساسات منفی در او می‌شدند.

۶- سیستم تشخیص چهره پلیس نژادپرست است

در ژانویه ۲۰۲۰ (دی ماه ۱۳۹۹) مردی سیاه پوست به نام Robert Williams در دفتر کار خود نشسته بود که تماسی از سوی اداره پلیس دیترویت دریافت کرد. آنها به او گفتند که سریعا محل کار خود را ترک کند و به اداره پلیس برود و خود را تسلیم کند. او تصور کرد که این تماس تنها یک شوخی است، به همین دلیل اهمیتی به آن نداد.

اما وقتی که به خانه رفت، ماموران پلیس در مقابل چشمان همسر و دو دخترش بدون هیچ توضیحی به او دستبند زدند. او را بازداشت کردند و مورد بازجویی قرار دادند. از او پرسیدند که آخرین باری که به فروشگاه Shinola رفته کی بوده است. آقای ویلیامز پاسخ داد که او و همسرش تنها در زمان افتتاح آن فروشگاه یعنی سال ۲۰۱۴ به آنجا رفته بودند.

کارآگاه پرونده که خیلی به تشخیص خود مطمئن بود، تصویری از دوربینٰ‌های مدار بسته از قسمت ساعت فروشی این فروشگاه را به آقای ویلیامز نشان داد. درضمن ارزش کالای دزدیده شده ۳۸۰۰ دلار بود. کارآگاه رو به این مرد سیاه پوست کرد و گفت که این تو نیستی؟ آقای ویلیامز عکس را برداشت و کنار صورتش گرفت و گفت:

فکر می‌کنی همه سیاه پوست‌ها شبیه هم هستند؟

ظاهرا آنها همین فکر را می‌کردند؛ زیرا عکس دیگری از مرد سارق را با گواهینامه رانندگی آقای ویلیامز مقایسه کردند. او تا غروب آن روز در بازداشت بود و با قرار وثیقه ۱۰۰۰ دلاری آزاد شد. روز بعد، او شغلی را که ۴ سال برای آن تلاش بسیار کرده بود از دست داد و از آن پس دختر ۵ ساله‌اش در بازی دزد و پلیس پدرش را متهم به دزدی می‌کرد.

این مورد هم یکی از بدترین حوادث است که می‌تواند به وسیله اشتباهات هوش مصنوعی پیش بیاید. درواقع پلیس بیش از حد به برنامه تشخیص چهره اعتماد کرد. آقای ویلیامز دزد نبود اما به جرم سیاه پوست بودن مورد اتهام قرار گرفت.

در یک مطالعه فدرال بر روی بیش از ۱۰۰ سیستم تشخیص چهره مشخص شد که آفریقایی-آمریکایی‌ها و آسیایی-آمریکایی‌‌ها ۱۰۰ برابر بیشتر از سفیدپوستان به اشتباه شناسایی می‌شوند. طبق اعترافات خود اداره پلیس دیترویت، سیاه پوستان به طور ویژه‌ از خطای تشخیص چهره آسیب می‌بینند.

۷- حادثه ۲۴۱: ربات شطرنج باز انگشت کودک ۷ ساله را شکست

ربات‌ها به قوانین پایبند هستند. بنابراین نباید تعجب کرد که وقتی یک پسر بچه ۷ ساله با ربات شطرنج بازی می‌کرد و چند ثانیه زودتر مهره خود را حرکت داد، بازوی بزرگ ربات انگشت او را شکست.

ربات شطرنج باز طوری برنامه نویسی شده است که در هر بار تعویض نوبت نیاز به زمان دارد. چون در بازی با این پسربچه زمان کافی را دریافت نکرد، از کوره در رفت. در ویدیویی از این حادثه پسر بچه را می‌بینیم که انگشت کوچک او میان پنجه‌های هوش مصنوعی گیر افتاده و وحشت زده شده است. سه مرد تلاش کردند تا دست او را آزاد کنند.

با این حال، نایب رئیس فدراسیون شطرنج روسیه این حادثه را کم اهمیت جلوه داد و گفت که این فقط یک تصادف بوده است. او سعی کرد تا هوش مصنوعی را از سرزنش‌ها مبرا کند و اضافه کرد که مخترع این ربات بسیار با استعداد است و باید به کودکان هشدارهای لازم را داد.

این کودک هفت ساله که یکی از ۳۰ بازیکن برتر مسکو است، مسابقات را با دست شکسته در گچ ادامه داد.

۸- حادثه ۱۶۰: آمازون اکو، کودکان را به چالش برق گرفتگی دعوت می‌کند

راه یافتن هوش مصنوعی در خانه‌های مردم نه تنها هیچ کمکی به کاهش نگرانی‌ها نکرده، بلکه در بعضی موارد باعث تشدید آنها شده است. خود آمازون نیز برخلاف انکار کاربران اعتراف کرده است که دستگاه‌های اکو-الکسا می‌توانند بدون اطلاع مشتریان به مکالمات آنها گوش دهند.

اما اوضاع از این بدتر هم می‌شود و یکی از بدترین حوادث هوش مصنوعی رخ می‌دهد. مادری با دختر ده ساله‌اش در حال انجام چالش‌های یوتیوب بودند که تصمیم می‌گیرند از الکسا بخواهند پیشنهاد چالش بعدی را بدهد. این بلندگوی هوشمند چند ثانیه تامل کرد و گفت که شارژر گوشی را تا نیمه به پریز برق وصل کنید، سپس یک سکه را به نیمه دیگر دوشاخه که بیرون مانده است متصل کنید.

مادر دختر وحشت زده شد و بر سر الکسا فریاد زد که این درست نیست و سپس این اتفاق را توییت کرد. آمازون ادعا می‌کند که بعد از این حادثه، نرم‌افزار الکسا را به روزرسانی کرده‌اند؛ اما اگر بخواهیم کمی منصفانه به این ماجرا نگاه کنیم، این ایده الکسا نبود. این یک چالش محبوب در تیک تاک بود. با این حال اگر مادر دختر آنجا حضور نداشت، ممکن بود این بچه انگشتان و یا حتی دست خود را از دست بدهد.

۹- خودروهای تسلا بدون هشدار قبلی ترمز می‌کنند

اواخر سال ۲۰۲۱ تا اوایل سال ۲۰۲۲، تسلا شاهد افزایش شکایات مربوط به ترمز فانتوم بود. در واقع، سیستم پیشرفته کمک راننده تصور می‌کند که مانعی در جاده وجود دارد و برای جلوگیری از برخورد با آن ترمز می‌کند. نیازی به گفتن نیست که این ترمز ناگهانی نه تنها از تصادف جلوگیری نمی‌کند، بلکه خطر برخورد ماشین پشتی را افزایش می‌دهد.

ترمز فانتوم همیشه یکی از دغدغه‌های تسلا بوده است؛ اما هنگامی که در سال ۲۰۲۱ ماشین‌های خود را به سیستم رانندگی خودران کامل (FSD) ارتقا داد، مشکلاتش با ترمز فانتوم چند برابر شد. در حقیقت، اداره ملی ایمنی بزرگراه‌های آمریکا تنها در سه ماه ۱۰۷ شکایت مربوط به خودروهای تسلا دریافت کرد. این آمار در مقایسه با ۳۴ شکایت در ۲۲ ماه قبل از راه‌اندازی این سیستم بسیار زیاد است.

در یکی از این گزارش‌ها، یک راننده اوبر از خودروی مدل Y 2022 خود شکایت می‌کند که ماشینش برای کیسه‌های پلاستیکی در وسط جاده ناگهان ترمز کرده است. یا در گزارشی دیگر، زن و شوهری با سرعت ۶۰ مایل در ساعت (۱۰۰ کیلومتر در ساعت) در حال حرکت بودند که خودرو ناگهان ترمز می‌کند و صندلی‌های کودکان آنها از عقب به جلو پرت می‌شوند. خوشبختانه کودکان آنها در ماشین نبودند.

رسانه‌ها قصد داشتند این موضوع را منعکس نکنند؛ اما اوضاع به قدری خراب شد که غیرقابل انکار بود و به یکی از بدترین حوادث رقم خورده توسط هوش مصنوعی تبدیل شد.

حتی پس از این گزارش‌ها، تسلا هیچ واکنشی نشان نداد و اظهار نظری نکرد. ارتقا خودروها به سیستم تمام خودران بسیار حساس بود و خودشان نیز این را می‌دانستند. تنها پاسخی که به مالکان خودرو دادند این بود که نرم‌افزار در حال تکامل است و در حال حاضر هیچ راه حلی وجود ندارد.

۱۰- حادثه ۱۲۱: پهپادها خودسرانه به سربازان در حال عقب نشینی حمله کردند

در سال ۲۰۲۰، پهپاد STM Kargu-2 که یک سیستم تسلیحاتی خودران مرگبار است به گروهی از سربازان که در حال فرار از حملات موشکی بودند حمله کرد. سازمان ملل اعلام نکرد که آیا این حمله کشته‌ای داشته است یا خیر؛ اما جواب کاملا مشخص است. این حادثه در نوع خود یکی از بدترین حوادث هوش مصنوعی به شمار می‌رود.

در این حادثه، هوش مصنوعی کاملا به میل خود انسان را ردیابی و به آنها حمله کرده است. این حادثه نیز تقصیر خود بشر محسوب می‌شود؛ زیرا رقابت بین کشورها برای برتری نظامی باعث شده که مقررات و قوانین ایمنی به خوبی رعایت نشود.

علاوه بر این، این فناوری اغلب با عجله و بدون بررسی کامل به کار گرفته می‌شود. به عنوان مثال، پهپادها می‌توانند یک کشاورزی که شنکش در دست دارد را با یک سرباز تفنگ به دست اشتباه بگیرند.

به همین دلیل، محققان به شدت نگران تولید انبوه پهپادها هستند؛ زیرا تاکنون تعداد زیادی از آنها ساخته و مستقر شده‌اند. همچنین پهپاد kargu یک پرنده سرگردان است که طبق یادگیری ماشینی و بر اساس طبقه بندی اشیا آموزش دیده است؛ اما مجموعه داده‌هایی که براساس آنها آموزش دیده کیفیت پایینی دارد.

فرایند تصمیم گیری این پهپاد حتی برای سازندگانش نیز مرموز و ناشناخته است و نمی‌دانند که آیا می‌تواند با ۱۹ پهپاد همتای خود همکاری کند یا خیر. همه اینها باعث افزایش نگرانی‌ها می‌شود. اگر در آینده پهپادها حامل سلاح هسته‌ای باشند چه فاجعه‌ای رخ خواهد داد؟

منبع :toptenz

افزودن دیدگاه جدید

محتوای این فیلد خصوصی است و به صورت عمومی نشان داده نخواهد شد.

HTML محدود

  • You can align images (data-align="center"), but also videos, blockquotes, and so on.
  • You can caption images (data-caption="Text"), but also videos, blockquotes, and so on.
5 + 1 =
Solve this simple math problem and enter the result. E.g. for 1+3, enter 4.