پدرخوانده هوش مصنوعی:

هوش مصنوعی خوب بر بد پیروز نمی شود

هوش مصنوعی خوب بر بد پیروز نمی شود به گزارش لینک بگیر، جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده هوش مصنوعی را یدک می کشد، در جدید ترین اظهارات خود گفته که هنوز متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز می شود و به آینده ی این فناوری خوش بین نیست.


به گزارش لینک بگیر به نقل از ایسنا، جفری هینتون، استاد دانشگاه تورنتو که اغلب به علت تحقیقات پیشگامانه اش در زمینه شبکه های عصبی، «پدرخوانده هوش مصنوعی» نامیده می شود، اخیراً به صف اخطار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.
او اواسط اردیبهشت ماه کار خویش را در گوگل رها کرد تا آزادانه تر حوزه ای را که به پیشگامی آن کمک کرده بود، نقد کند.
هینتون عمر خویش را وقف مطالعه شبکه های عصبی کرده است که اغلب، کلید هوش مصنوعی هستند، اما بیشتر به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ شناخته می شود. شبکه عصبی موفق او می تواند از تصاویر آموزشی جهت کمک به تشخیص اشیای رایج استفاده نماید.
هینتون پیشرفت و افزایش اخیر هوش مصنوعی های مولد مانند ChatGPT و Bing Chat را نشانه هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.
وی در ایام اخیر در کنفرانسی معروف به کالیژن(Collision) که در تورنتو برگزار شد، نگرانی های خویش را تشریح کرده است.
در حالیکه شرکت ها هوش مصنوعی را بعنوان چاره ای برای همه چیز می دانند و آنرا تبلیغ می کنند، جفری هینتون زنگ خطر را به صدا درآورده است. او می گوید متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز شود و اعتقاد دارد که سازگاری اخلاقی هوش مصنوعی امکان دارد هزینه زیادی داشته باشد.
گذشتن از گوگل برای آزادی بیان
گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خریداری کرد و مفهوم زیربنایی اختراع او به رشد موجی از توسعه کمک کرد که منجر به فناوری هوش مصنوعی مولد امروزی شد.
اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات در رابطه با این فناوری اخطار دهد.
این پژوهشگر نگران است که گوگل در کوشش برای رقابت با ربات های هوش مصنوعی نظیر ChatGPT، Bing Chat و مدلهای مشابه، محدودیت ها و احتیاط های قبلی خویش را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی مختلف باز کند.
هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی می گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. وی همینطور نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به صورت کامل جایگزین بعضی از مشاغل شود.
این دانشمند همینطور در مورد امکان توسعه سلاح های کاملا خودمختار و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده های آموزشی نگران است.
جفری هینتون می گوید سال قبل زمانیکه شرکتهای گوگل، OpenAI و دیگران شروع به ایجاد سیستم های هوش مصنوعی کردند، موضع او تغییر یافته است. هوش مصنوعی تنها در پنج سال قبل به سرعت توسعه یافته است که به قول پدرخوانده این حوزه، تصور این که در پنج سال آینده چه اتفاقی می افتد، «ترسناک» است.


تهدیدی برای بشریت
هینتون مدعی است که هوش مصنوعی تنها به اندازه افرادی که آنرا می سازند، خوب است و نوعِ بد آن هنوز هم می تواند بر نمونه ی خوب آن پیروز شود.
وی توضیح داد: من متقاعد نشده ام که بتوانم یک هوش مصنوعی خوب را که تلاش می کند جلوی بدی را بگیرد، کنترل کنم. برای مثال، امکان دارد دشوار باشد که یک مجتمع نظامی-صنعتی را از تولید ربات های جنگی بازدارید.
او می گوید شرکت ها و ارتش ها امکان دارد جنگ هایی را دوست داشته باشند که تلفات در آنها، ماشین هایی هستند که به سادگی میتوان آنها را جایگزین کرد.
در حالیکه هینتون اعتقاد دارد که مدلهای زبانی بزرگ(هوش مصنوعی آموزش دیده که متنی شبیه به انسان تولید می کند، مانند GPT-۴ توسعه یافته توسط شرکت OpenAI) می تواند منجر به افزایش چشم گیر بهره وری شود، اما او نگران است که طبقه حاکم به آسانی از این مزیت برای غنی سازی خود سوءاستفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون می گوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر می کند».
هینتون همینطور دیدگاه خویش را که بسیار نقل قول شده بود، تکرار کرد. او می گوید هوش مصنوعی می تواند خطری برای موجودیت بشریت ایجاد نماید. اگر هوش مصنوعی از انسان باهوش تر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.
هینتون اضافه کرد: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری می باشد، ما به مشکل می خوریم.
از نظر هینتون، این تهدیدها، علمی-تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده است.
هینتون می گوید هم اکنون مشکلات زیادی وجود دارد. او استدلال می کند که سوگیری و تبعیض همچنان یک مشکل اساسی است، چونکه داده های آموزشی نادرست می تواند نتایج ناعادلانه ای ایجاد نماید. الگوریتم ها هم اتاق های پژواک ایجاد می کنند که اطلاعات نادرست و مسائل در ارتباط با سلامت روان را تقویت می کنند.
در رسانه های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس می شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده ها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت می شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی روند و دیدگاه های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می شوند.
هینتون همینطور نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق های پژواک است. او مطمئن نیست که آیا بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.
این بدان معنا نیست که هینتون از تاثیر هوش مصنوعی ناامید شده است، باآنکه او اخطار می دهد که استفاده سالم از این تکنولوژی امکان دارد هزینه بالایی داشته باشد. انسان ها امکان دارد مجبور باشند کار آزمایشی و تجربی را برای درک این که چگونه هوش مصنوعی امکان دارد اشتباه کند و اینکه چگونه از در دست گرفتن کنترل توسط آن جلوگیری نمایند، انجام دهند.
وی می گوید هم اکنون تصحیح سوگیری ها امکان پذیر است. یک مدل زبانی بزرگ می تواند به اتاق های پژواک پایان دهد، اما تغییرات در سیاست های شرکت را بسیار مهم می دانم.
این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خویش را به خاطر اتوماسیون و ماشینی شدن از دست می دهند، اظهار داشت که احساس می کند «سوسیالیسم» یا جامعه گرایی برای رسیدگی به نابرابری مورد نیاز است و مردم می توانند با انتخاب مشاغلی که می تواند با گذشت زمان تغییر کند، مانند لوله کشی، از بیکاری در امان بمانند. به نظر می آید او شوخی نمی کند و اعتقاد دارد که جامعه امکان دارد مجبور باشد تغییرات گسترده ای برای انطباق با هوش مصنوعی در خود ایجاد نماید.
شایان ذکر است که هینتون در این موضع گیری، تنها نیست. برخی از دانشگاهیان و افراد برجسته در حوزه فناوری همچون ایلان ماسک و استیو وزنیاک هم اخیراً نامه ای سرگشاده امضا و منتشر نموده اند که در آن خواهان توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شده اند. با این وجود، سخنان هینتون بعنوان یکی از برجسته ترین چهره های این صنعت، وزن قابل توجهی دارد.


امیدواری به صنعت هوش مصنوعی
برخی دیگر از مصاحبه ها در کنفرانس کالیژن(Collision) امیدوارکننده تر بود. کالین مورداک، مدیر بازرگانی گوگل دیپ مایند در یک بحث متفاوت اظهار داشت که هوش مصنوعی درحال حل بعضی از سخت ترین چالش های جهان است.
او گفت صحبت زیادی در این حوزه نمی گردد. گوگل دیپ مایند درحال لیست بندی تمام پروتئین های شناخته شده، مبارزه با باکتری های مقاوم به آنتی بیوتیک و حتی تسریع کار بر روی توسعه واکسن های مالاریا است.
او از چیزی بعنوان «هوش مصنوعی عمومی» سخن به میان آورد که می تواند چندین مشکل را حل کند و بعنوان نمونه به محصولات گوگل اشاره نمود. وی اظهار داشت: ابزار Lookout برای توصیف عکس ها مفید می باشد، اما فناوری زیربنایی آن سبب می شود جستجو در YouTube Shorts هم امکان پذیر شود.
مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته بعنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.
مورگان مک گوایر، دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از راه بازی دور هم جمع می کند- تا حد زیادی با این مورد موافق است. او اعتقاد دارد که ابزارهای هوش مصنوعی مولدِ سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ایجاد مواد درون بازی را آسان تر می کنند.
روبلوکس حتی درحال عرضه یک مدل هوش مصنوعی منبع باز به نام StarCoder است که امیدوار است با در دسترس تر کردن مدلهای زبانی بزرگ به دیگران کمک نماید.
در حالیکه مک گوایر در یک بحث به چالش هایی در مورد مقیاس بندی و تعدیل محتوا اذعان کرد، اما او اعتقاد دارد که متاورس به لطف مجموعه خلاقانه اش، امکانات نامحدودی خواهد داشت.
مورداک و مک گوایر هر دو نگرانی های مشابهی را با هینتون ابراز کردند، اما لحن آنها اساسا کمتر هشداردهنده بود.
مورداک تصریح کرد که دیپ مایند خواستار یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاوره های تخصصی و سرمایه گذاری های آموزشی گوگل دیپ مایند بعنوان مدرک اشاره نمود. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفت های اعجاب انگیز را بدهد.
مک گوایر هم اظهار داشت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه می کند، بر مجموعه های داده ای متنوع تکیه می کند و شفافیت را تمرین می کند.


امید به آینده
بر خلاف اظهار نظرهایی که جفری هینتون به تازگی داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی بعد از ترک گوگل کاهش نیافته است. خودش می گوید اگر کارم را در گوگل ترک نمی کردم، مطمئنم که روی مدلهای هوش مصنوعی چندوجهی کار می کردم که در آن بینش، زبان و سایر نشانه ها به تصمیم گیری کمک می نماید.
وی می گوید کودکان کوچک فقط از زبان یاد نمی گیرند، ماشین ها هم می توانند همین کار را انجام دهند.
در عین حال که هینتون نگران خطرات هوش مصنوعی است، اعتقاد دارد که در نهایت می تواند هر کاری را که یک انسان می تواند، انجام دهد و قدرت تعقل داشته باشد. بعنوان مثال، GPT-۴ می تواند خویش را برای حل پازل ها و معماهای دشوارتر وفق دهد.
هینتون اذعان می کند که سخنرانی اش در کنفرانس کالیژن، چیز زیادی در رابطه با کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.
او می گوید، پیشرفت فناوری هوش مصنوعی احتمالا سالم بوده است، حتی اگر هنوز نگران نتایج آن باشیم.
هینتون در پایان، آزادانه اعتراف کرد که علیرغم مشکلات اخلاقی احتمالی، از اشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او اظهار داشت: من عاشق این چیزها هستم. چطور میتوان عاشق ساختن چیزهای هوشمند نبود؟




منبع:

1402/04/13
13:17:45
0.0 / 5
266
تگهای خبر: ارتباطات , بازی , تحقیقات , تكنولوژی
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۱
سئوی سایت با بک لینک دائمی ارزان
linkbegir.ir - حقوق مادی و معنوی سایت لینك بگیر محفوظ است

لینك بگیر

بک لینک ارزان و رپورتاژ آگهی