اصلی نوآوری استیون هاوکینگ ، ایلان ماسک و بیل گیتس در مورد هوش مصنوعی هشدار می دهند

استیون هاوکینگ ، ایلان ماسک و بیل گیتس در مورد هوش مصنوعی هشدار می دهند

چه فیلمی را ببینید؟
 
استیون هاوکینگ ، ایلان ماسک و بیل گیتس. (عکس: گتی ایماژ)



برخی از محبوب ترین فیلم های علمی تخیلی - 2001: ادیسه فضایی ، نابودگر ، ماتریس ، تعالی ، ماشین سابق و بسیاری دیگر - بر این مفهوم استوار بوده اند که هوش مصنوعی تا جایی پیشرفت خواهد کرد که بشریت قادر به کنترل آفرینش های خود نباشد و منجر به نابودی کل تمدن ما شود. این ترس از رشد سریع فناوری و وابستگی روزافزون ما به آن ، با توجه به توانایی ماشین های فعلی ساخته شده برای اهداف نظامی ، قطعاً قابل توجیه است.

در حال حاضر ، از زمان آغاز جنگ عراق در سال 2001 ، فناوری تأثیر قابل توجهی در جنگ داشته است. هواپیماهای بدون سرنشین بدون سرنشین نظارت پایدار و حملات سریع به اهداف را انجام می دهند و از ربات های کوچک برای خلع سلاح بمب های دست ساز استفاده می شود. ارتش در حال حاضر است منابع مالی تحقیق کنید تا بیشتر تولید کنید ربات های خودمختار و خودآگاه برای کاهش نیاز به سربازان انسانی برای به خطر انداختن جان خود. مارک رایبر ، بنیانگذار Boston Dynamics ، ویدئویی منتشر کرد که نشان می دهد یک قد وحشتناک شش فوت ، 320 پوند دارد. ربات انسان نما به نام Atlas ، آزادانه در جنگل می دوید. شرکتی که بود خریداری شده توسط گوگل در سال 2013 و از وزارت دفاع پول کمک مالی می گیرد ، در حال توسعه یک نسخه حتی چابک تر است.

[protection-iframe id = f3ad9cb5d88743d09a7e6c45b1a9b09b-35584880-78363900 ″ info = https: //www.youtube.com/embed/NwrjAa1SgjQ عرض = 560 ″ قد = 315 ″ frameborder = 0 ″ مجاز]

خطرات ذاتی چنین فناوری قدرتمندی رهبران زیادی را در جامعه علمی ترغیب کرده است تا نگرانی های خود را درباره هوش مصنوعی بیان کنند.

موفقیت در ایجاد هوش مصنوعی بزرگترین واقعه در تاریخ بشر است ، استیون هاوکینگ در یک مقاله نوشت: ظاهر شد که در مستقل متأسفانه ، ممکن است آخرین باشد ، مگر اینکه یاد بگیریم چگونه از خطرات جلوگیری کنیم. در کوتاه مدت ، نظامیان جهان در حال بررسی سیستم های سلاح خودمختار هستند که می توانند اهداف را انتخاب و از بین ببرند. پروفسور هاوکینگ در سال 2014 اضافه کرد مصاحبه با بی بی سی ، انسان ها ، محدود شده توسط تکامل بیولوژیکی آهسته ، نمی توانند رقابت کنند و توسط A.I جایگزین می شوند.

فناوری توصیف شده توسط آقای هاوکینگ در حال حاضر به چندین شکل مختلف از دانشمندان آمریکایی آغاز شده است استفاده از رایانه برای ورود الگوریتم ها پیش بینی استراتژی های نظامی افراط گرایان اسلامی به شرکت هایی مانند Boston Dynamics که ساخته اند ربات های متحرک با موفقیت ، به طور مداوم در حال بهبود هر نمونه اولیه آنها.

آقای هاوکینگ اخیراً در صدور نامه ای که ماه گذشته در کنفرانس مشترک بین المللی که در بوینس آیرس آرژانتین رونمایی شد ، به ایلون ماسک ، استیو وزنیاک و صدها نفر دیگر پیوست. این نامه هشدار می دهد که هوش مصنوعی به طور بالقوه می تواند خطرناک تر از سلاح هسته ای باشد.

معضل اخلاقی اعطای مسئولیت های اخلاقی به روبات ها خواستار ایمنی دقیق و اقدامات پیشگیرانه ای است که ایمن نبوده و یا تهدیدات بیش از حد قابل خطر است.

ایلان ماسک احتمال هوش مصنوعی را بزرگترین تهدید وجودی ما در سال 2014 خواند مصاحبه با دانشجویان MIT در سمپوزیوم صد ساله AeroAstro. من بیشتر تمایل دارم فکر کنم که باید کمی نظارت نظارتی انجام شود ، شاید در سطح ملی و بین المللی ، فقط برای اطمینان از اینکه ما کار خیلی احمقانه ای انجام نمی دهیم. آقای ماسک از تصمیم خود برای سرمایه گذاری در شرکت هوش مصنوعی ، DeepMind به عنوان یک استناد می کند به معنای فقط باید مراقب آنچه با هوش مصنوعی می گذرد ، باشید. من فکر می کنم نتیجه خطرناکی در آنجا وجود دارد.

بیل گیتس ، بنیانگذار مایکروسافت ، همچنین نگرانی هایی در مورد هوش مصنوعی ابراز کرده است. در طول یک جلسه پرسش و پاسخ در Reddit در ژانویه 2015 ، آقای گیتس گفت ، من در اردوگاهی هستم که نگران هوش فوق العاده هستم. ابتدا دستگاه ها کارهای زیادی برای ما انجام می دهند و فوق العاده باهوش نیستند. اگر بخوبی مدیریت کنیم باید مثبت باشد. چند دهه پس از آن ، اگرچه هوش به اندازه کافی قوی است که می تواند نگران کننده باشد. من با الون ماسک و برخی دیگر در این مورد موافقم و نمی فهمم که چرا برخی از مردم نگران نیستند.

تهدیدهای برشمرده شده توسط هاوکینگ ، ماسک و گیتس واقعی هستند و شایسته توجه فوری ما هستند ، علیرغم مزایای فوق العاده ای که هوش مصنوعی می تواند به طور بالقوه برای بشریت به همراه داشته باشد. همانطور که فناوری ربات بطور پیوسته به سمت پیشرفتهای لازم برای تسهیل اجرای گسترده افزایش می یابد ، مشخص می شود که ربات ها در موقعیت هایی قرار می گیرند که تعدادی از اقدامات را ایجاد می کنند. معضل اخلاقی اعطای مسئولیت های اخلاقی به روبات ها خواستار ایمنی دقیق و اقدامات پیشگیرانه ای است که ایمن نبوده و یا تهدیدات بیش از حد قابل خطر است.

مقالاتی که ممکن است دوست داشته باشید :