برنده جایزه نوبل از دلیل اخراج مدیرعامل OpenAI می‌گوید

0

آخرین اخبار تکنولوژی:

برنده جایزه نوبل از دلیل اخراج مدیرعامل OpenAI می‌گوید

کسب و کارفناوریهوش مصنوعی

پنج‌شنبه ۱۹ مهر ۱۴۰۳ – ۲۱:۴۱مطالعه 2 دقیقه

محمد دزفولیان

سم آلتمن OpenAI
جفری هینتون، دانشمند هوش مصنوعی و برنده‌ی نوبل فیزیک، علت اخراج آلتمن را توضیح می‌دهد.
تبلیغات

براساس گفته‌های یکی از برندگان جایزه‌ی نوبل، دانشجوی سابق او، ایلیا سوتسکور، که پیش از این دانشمند ارشد و عضو هیئت‌مدیره‌ی OpenAI بود، سم آلتمن را به‌خاطر تمرکز او بر سودآوری به‌جای ایمنی هوش مصنوعی اخراج کرده است.

OpenAI در ماه‌های گذشته به دلیل موضوعات متنوعی از جمله پیش‌بینی ورشکستگی با زیان پنج میلیارد دلاری در ماه‌های آینده و خروج اعضای برجسته‌ای مانند میرا موراتی و ایلیا سوتسکور در کانون توجه قرار گرفته است. برخی احتمال داده‌اند که این شرکت به کسب‌وکاری سودآور تبدیل خواهد شد تا از مداخله‌های خارجی جلوگیری کند و ۶٫۶ میلیارد دلار جمع‌آوری‌شده در آخرین دور تأمین مالی را به سرمایه‌گذاران بازگرداند.

ایلیا سوتسکور نشسته روی مبل درحال نگاه به بیرون
ایلیا سوتسکور
عکاس: Jim Wilson / The New York Times

ایلیا سوتسکور، دانشجوی جفری هینتون، استاد دانشگاه تورنتو بوده است. هینتون که به‌تازگی جایزه‌ی نوبل فیزیک را به‌دلیل پایه‌گذاری علم یادگیری ماشین دریافت کرد، سوتسکور را به‌عنوان دانشجویی زیرک توصیف می‌کند و حتی او را از خودش زیرک‌تر می‌داند.

هینتون تلاش‌های سوتسکور در زمان خدمتش به‌عنوان دانشمند ارشد OpenAI را در پیشرفت این شرکت بسیار موثر دانست. هینتون همچنین به انتقاد از آلتمن پرداخت و ادعا کرد که او به امنیت هوش مصنوعی خیلی کمتر از سودآوری آن اهمیت می‌دهد.

سم آلتمن، مدیرعامل OpenAI، به‌مدت کوتاهی از سمت خود توسط هیئت‌مدیره برکنار شد، اما چند روز بعد پس از آنکه این وضعیت میان کارکنان و سرمایه‌گذاران جنجال به‌پا کرد، به کار خود بازگشت. سوتسکور در آن زمان عضو هیئت‌مدیره بود و گفته می‌شود که زمینه‌ی اخراج آلتمن را فراهم کرده است. او پس از بازگشت آلتمن، OpenAI را ترک کرد.

مقالات مرتبط
  • آینده نامعلوم OpenAI: احتمال ورشکستگی در کمتر از ۱۲ ماه با زیان ۵ میلیارد دلاری
  • دانشمندان پایه‌گذار هوش مصنوعی، برنده جایزه نوبل فیزیک شدند

هینتون درباره‌ی پیشرفت سریع هوش مصنوعی و احتمال پایان بشر به‌دست آن صحبت کرد. او پیش‌بینی می‌کند که ما در آستانه‌ی دستیابی به «ابر هوش» هستیم که ممکن است به انقراض انسان‌ها منجر شود.

سوتسکور پس از خروج از OpenAI، سراغ پروژه‌ای رفت که از نظر خودش معنادار بود. او استارتاپ Safe Superintelligence Inc. (SSI) را تأسیس کرد که روی ساخت ابر هوش ایمن تمرکز دارد.

مقاله رو دوست داشتی؟
نظرت چیه؟
  • محمد دزفولیان
داغ‌ترین مطالب روز

منبع : https://www.zoomit.ir

About The Author

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *