OpenAI خالق ChatGPT ، طیف کاملی از خطرات ایمنی مرتبط با هوش مصنوعی را جدی می گیرد و تیم آمادگی خود را طبق برنامه راه اندازی می کند.
OpenAI ، شرکت تحقیقاتی و استقرار هوش مصنوعی (AI) که پشت ChatGPT قرار دارد ابتکار جدیدی را برای ارزیابی طیف وسیعی از خطرات مرتبط با هوش مصنوعی راهاندازی میکند ، این شرکت در ۲۵ اکتبر اعلام کرد که OpenAI در حال ساخت تیم جدیدی است که به ردیابی ، ارزیابی ، پیشبینی و حفاظت از خطرات فاجعهبار احتمالی ناشی از هوش مصنوعی اختصاص دارد.
بخش جدید OpenAI که آمادگی نامیده می شود ، به طور خاص بر روی تهدیدات بالقوه هوش مصنوعی مرتبط با تهدیدات شیمیایی ، بیولوژیکی ، رادیولوژیکی و هسته ای و همچنین متقاعدسازی فردی ، امنیت سایبری و تکثیر و سازگاری مستقل تمرکز خواهد کرد ، تیم آمادگی به رهبری الکساندر مادری سعی خواهد کرد به سوالاتی مانند این که سیستمهای هوش مصنوعی مرزی در هنگام سوء استفاده چقدر خطرناک هستند و همچنین اینکه آیا عوامل مخرب میتوانند وزنهای مدل هوش مصنوعی دزدیده شده را مستقر کنند ، پاسخ دهند.
OpenAI نوشت ما معتقدیم که مدلهای هوش مصنوعی مرزی ، که از قابلیتهای موجود در پیشرفتهترین مدلهای موجود فراتر میروند ، این پتانسیل را دارند که به نفع تمام بشریت باشند ، این شرکت افزود ما طیف کاملی از خطرات ایمنی مرتبط با هوش مصنوعی را جدی میگیریم ، از سیستمهایی که امروز در اختیار داریم تا دورترین نقاط ابراطلاعات ، برای حمایت از ایمنی سیستم های هوش مصنوعی بسیار توانمند ، ما در حال توسعه رویکرد خود برای آمادگی در برابر خطرات فاجعهآمیز هستیم.
طبق این پست وبلاگ ، OpenAI اکنون به دنبال استعدادهایی با پیشینه های فنی متفاوت برای تیم جدید آمادگی خود است و علاوه بر این ، این شرکت در حال راه اندازی یک چالش آمادگی هوش مصنوعی برای جلوگیری از سوء استفاده فاجعه آمیز است و ۲۵۰۰۰ دلار اعتبار API را به ۱۰ ارسالی برتر خود ارائه می دهد.
OpenAI قبلا گفته بود که در حال برنامهریزی برای تشکیل تیم جدیدی است که به مقابله با تهدیدات بالقوه هوش مصنوعی در جولای ۲۰۲۳ اختصاص دارد ، خطرات به طور بالقوه مرتبط با هوش مصنوعی به طور مکرر برجسته شده است ، همراه با ترس از اینکه هوش مصنوعی این پتانسیل را دارد که از هر انسانی باهوش تر شود ، علیرغم اذعان به این خطرات ، شرکت هایی مانند OpenAI در سال های اخیر به طور فعال در حال توسعه فناوری های جدید هوش مصنوعی بوده اند که به نوبه خود نگرانی های بیشتری را برانگیخته است.
در ماه می ۲۰۲۳ ، سازمان غیرانتفاعی مرکز ایمنی هوش مصنوعی نامه ای سرگشاده درباره خطر هوش مصنوعی منتشر کرد و از جامعه خواست تا خطرات انقراض هوش مصنوعی را به عنوان یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند همه گیرها و جنگ هسته ای کاهش دهند.
خبرهایی که در این سایت مشاهده می کنید، از سایت های معتبر خبری جمع آوری شده اند. لذا تا جایی که امکان دارد از منابع اصلی استفاده می شود.
دیدگاهها (0)