هشدار درباره روبات های قاتل!

0
هشدار درباره روبات های قاتل!
هشدار درباره روبات های قاتل!

ییگروهی از پیشگامان در صنعت تکنولوژی، که شامل دانشمند بریتانیایی، استیون هاوکینگ، مدیر SpaceX الون موسک، و موسس کمپانی اپل استیو وزتیاک نیز میشوند، در روز سه شنبه راجع به توسعه و پیشرفت در دنیای تکنولوژی که آن ها نامش را ربات کشنده گذاشتند، هشدار دادند.
بیش از ۱۰۰۰ تن از اشخاص برتر در دنیای تکنولوژی در نامه ای سر گشاده نوشتند که، سلاح های خود مختار که از هوش مصنوعی برای هدف گیری بدون دخالت انسان استفاده میکنند، بعد از باروت و بمب های اتمی، سومین انقلاب در سلاح های جنگی به شمار می آیند.
آن ها نوشتند :” امروزه سوال اصلی برای جامعه انسان ها این است که آیا باید یک پروژه هوش مصنوعی به طور جهانی راه اندازی کنند یا این که از ابتدا جلوی آن را بگیرند و ریشه آن را نابود کنند.”
در ادامه این نامه آمده بود :” اگر حتی یک نیروی ارتش به توسعه سلاح هایی با تکنولوژی هوش مصنوعی بپردازد، پیشگیری از یک مسابقه جهانی برای توسعه این گونه ابزار غیر ممکن خواهد بود.”
بر اساس عقیده این دانشمندان، ایده ماشین های کشنده اتوماتیک توسط آرنولد شرزنگر در فیلم ترمیناتور بوجود آمد و در حال تبدیل شدن از یک داستان علمی تخیلی به واقعیت است.
این نامه همچنین به این موضوع اشاره میکند که اگر توسعه این گونه ابزار به از طریق قانون در طول سال های آینده ممنوع نشود، به سرعت به طوری که حتی به ۱۰ سال نیز کشیده نشود، دستیابی به چنین سیستم هایی عملی خواهد شد و در آینده ای نزدیک جهان از ماشین های کشنده پر خواهد بود.
دانشمندان از روزی حرف زدند که این سلاح های اتوماتیک به دست تروریست ها، دیکتاتور ها یا جنگ سالارانی بیافتد که میخواهند دنیا را از وجود قوم یا قبیله ای پاک کنند.
در نامه به این نکته نیز اشاره شده بود که :” راه های زیادی وجود دارد که انسان بتواند با استفاده از هوش مصنوعی و بدون ساختن ابزار های جدید برای کشتن مردم، میدان های جنگ را برای انسان ها و به خصوص اشخاص غیر مسلح به مکان امن تری تبدیل کند، و برای این کار نیازی به ماشین های کشنده خود مختار نیست.”
این نامه در مراسم گشایش کنفرانس مشترک بین المللی سال ۲۰۱۵ راجع به هوش مصنوعی در بونوس آیرس، ارائه شد.

شما می توانید جذاب ترین اخبار و مقالات دنیای تکنولوژی را در کانال تلگرام زوم تک دنبال کنید. برای عضویت در این کانال، اینجا کلیک کنید.

هیچ نظری یافت نشد

ارسال نظر

Time limit is exhausted. Please reload CAPTCHA.