مجله انگجت: خطر هوش مصنوعی همتراز با بمب هسته‌ای است

  • انتشار: ۹ جوزا ۱۴۰۲
  • سرویس: فناوری اطلاعات
  • شناسه مطلب: 140807

بزرگان صنعت کامپیوتر خطر هوش مصنوعی را همتراز با بیماری‌های واگیردار و بمب هسته ای می دانند.

به نقل از رسانه‌های خارجی، جمعی از بزرگان صنعت هوش مصنوعی در بیانیه ای یک جمله ای خطر هوش مصنوعی را همتراز با جنگ اتمی و بیماری های واگیردار اعلام کردند.

به گزارش مجله اینترنتی فناوری انگجت، سازمان غیرانتفاعی Center for AI Safety بیانیه‌ای را در یک‌جمله‌ای منتشر کرده است که می‌گوید: «کاهش ریسک انقراض توسط هوش مصنوعی باید در کنار سایر ریسک‌های بزرگ اجتماعی از جمله بیماری های همه‌گیر و جنگ هسته‌ای، به‌عنوان یک اولویت جهانی در نظر گرفته شود.»

این نامه توسط ۳۵۰ نفر از بزرگان صنعت کامپیوتر از جمله «سم آلتمن»، مدیرعامل شرکت OpenAI، «دمیس هاسابیس»، مدیرعامل دیپ‌مایند گوگل و «داریو آمودی»، مدیرعامل شرکت Anthropic امضا شده است.

«جفری هینتون» و «یوشوئا بنجیو» که دو برنده جایزه تورینگ در‌زمینه شبکه‌های عصبی هستند و اغلب به‌عنوان پدرخواندگان هوش مصنوعی مدرن شناخته می‌شوند نیز از جمله امضا کنندگان این بیانیه هستند.

این دومین بیانیه در اعلام خطر هوش مصنوعی است، پیش از این در ماه مارچ نیز ایلان ماسک، استیو وزنیاک (از بنیانگذاران شرکت اپل) و هزار نفر دیگر خواستار توقف ۶ ماهه توسعه هوش مصنوعی شدند تا مردم نسبت به آن شناخت بیشتری پیداکنند.

تفاوت این بیانیه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آن‌ها اختلافاتی وجود داشته باشد، خودداری کرده است.

سم آلتمن و دیگر مدیران OpenAI (شرکت سازنده chatGPT) هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بین‌المللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیش‌تر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدل‌های پیشرفته هوش مصنوعی را داشت.

نظرات(۰ دیدگاه)

نظر شما چیست؟