طرح جدید OpenAI برای کاهش خطرات هوش مصنوعی – یک ضربه


OpenAI اعلام کرد که در حال فعال کردن تیم جدیدی از محققان و مهندسان برتر یادگیری ماشین است.

من گزارش میدم تکناکهدف این تیم توسعه روش‌های آموزشی مقیاس‌پذیر است که اطمینان حاصل کند هوش مصنوعی خود را به روش‌های خطرناک نشان نمی‌دهد.

OpenAI در اطلاعیه خود اعلام کرد که هوش مصنوعی فوق هوشمند پرچمدار فناوری های تاثیرگذار خواهد بود که به حل بسیاری از مشکلات جهان کمک می کند. متأسفانه OpenAI معتقد است که هوش مصنوعی فوق هوشمند می تواند بسیار خطرناک باشد و می تواند منجر به انقراض بشریت شود.

این شرکت گفت که در حال حاضر راهی برای هدایت یا کنترل هوش مصنوعی فوق‌هوشمند ندارد. برای مدل‌های فعلی هوش مصنوعی، OpenAI از یادگیری تقویتی و بازخورد انسانی استفاده می‌کند که هر دو به نظارت هوش مصنوعی انسان بستگی دارند.

در نهایت، OpenAI معتقد نیست که انسان‌ها می‌توانند سیستم‌های هوش مصنوعی را که از ما باهوش‌تر هستند، به‌طور قابل اعتمادی کنترل کنند و روش‌های هم‌ترازی فعلی را منسوخ می‌کند. برای مقابله با این چالش، OpenAI یک تیم جدید Superalignment با اهداف زیر تشکیل داد:

  1. ایجاد یک روش یادگیری مقیاس پذیر.
  2. اعتبار سنجی مدل استنباط شده
  3. تست استرس کلی مراحل تثبیت.

برای OpenAI به اندازه کافی مهم است که تیم جدید به 20 درصد از توان محاسباتی ارائه شده تاکنون دسترسی داشته باشد. آنها چهار سال آینده فرصت دارند تا مشکل تراز هوش مصنوعی فوق العاده را حل کنند.

تیم جدید نیاز اصلی شرکت برای حل مشکل تراز هوش مصنوعی فوق‌هوشمند است، اما این شرکت همچنان انتظار دارد که تیم‌های دیگر در حل این مشکل مشارکت کنند.

مهم است که به یاد داشته باشید که هوش مصنوعی لزوماً مخرب نیست، اما می تواند مخرب باشد و به همین دلیل است که OpenAI نگران است. این شرکت بر این باور است که هوش مصنوعی فوق‌هوشمند در این دهه در دسترس است و می‌گوید ممکن است از هدف خود برای هدایت آن کوتاهی کند، اما همچنان خوشبین است.

همزمان با تشکیل تیم Superalignment، OpenAI قصد دارد افرادی را وارد کند که در زمینه یادگیری ماشینی موفق بوده اند. این شرکت به دنبال سمت هایی مانند مهندس پژوهش، دانشمند پژوهش و مدیر پژوهش می باشد.

Related Posts

دیدگاهتان را بنویسید