Web Analytics Made Easy - Statcounter
به نقل از «ایران اکونومیست»
2024-05-05@09:45:39 GMT

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

تاریخ انتشار: ۱۲ تیر ۱۴۰۲ | کد خبر: ۳۸۱۲۵۹۷۵

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده هوش مصنوعی را یدک می‌کشد، در جدیدترین اظهارات خود گفته که هنوز متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز می‌شود و به آینده‌ی این فناوری خوش‌بین نیست.

به گزارش ایران اکونومیست، جفری هینتون، استاد دانشگاه تورنتو که اغلب به دلیل تحقیقات پیشگامانه‌اش در زمینه شبکه‌های عصبی، «پدرخوانده هوش مصنوعی» نامیده می‌شود، اخیراً به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

او اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا آزادانه‌تر حوزه‌ای را که به پیشگامی آن کمک کرده بود، نقد کند.

هینتون عمر خود را وقف مطالعه شبکه‌های عصبی کرده است که اغلب، کلید هوش مصنوعی هستند، اما بیشتر به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ شناخته می‌شود. شبکه عصبی موفق او می‌تواند از تصاویر آموزشی برای کمک به تشخیص اشیای رایج استفاده کند.

هینتون پیشرفت و افزایش اخیر هوش مصنوعی‌های مولد مانند ChatGPT و Bing Chat را نشانه‌هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.

وی در روزهای اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار شد، نگرانی‌های خود را تشریح کرده است.

در حالی که شرکت‌ها هوش مصنوعی را به عنوان راه حلی برای همه چیز می‌دانند و آن را تبلیغ می‌کنند، جفری هینتون زنگ خطر را به صدا درآورده است. او می‌گوید متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز شود و معتقد است که سازگاری اخلاقی هوش مصنوعی ممکن است هزینه زیادی داشته باشد.

گذشتن از گوگل برای آزادی بیان

گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خریداری کرد و مفهوم زیربنایی اختراع او به رشد موجی از توسعه کمک کرد که منجر به فناوری هوش مصنوعی مولد امروزی شد.

اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.

این پژوهشگر نگران است که گوگل در تلاش برای رقابت با ربات‌های هوش مصنوعی نظیر ChatGPT، Bing Chat و مدل‌های مشابه، محدودیت‌ها و احتیاط‌های قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.

هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی می‌گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به طور کامل جایگزین برخی از مشاغل شود.

این دانشمند همچنین در مورد امکان توسعه سلاح‌های کاملاً خودمختار و تمایل مدل‌های هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده‌های آموزشی نگران است.

جفری هینتون می‌گوید سال گذشته زمانی که شرکت‌های گوگل، OpenAI و دیگران شروع به ایجاد سیستم‌های هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال گذشته به سرعت توسعه یافته است که به گفته پدرخوانده این حوزه، تصور اینکه در پنج سال آینده چه اتفاقی می‌افتد، «ترسناک» است.

تهدیدی برای بشریت

هینتون مدعی است که هوش مصنوعی تنها به اندازه افرادی که آن را می‌سازند، خوب است و نوعِ بد آن هنوز هم می‌تواند بر نمونه‌ی خوب آن پیروز شود.

وی توضیح داد: من متقاعد نشده‌ام که بتوانم یک هوش مصنوعی خوب را که تلاش می‌کند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکن است دشوار باشد که یک مجتمع نظامی-صنعتی را از تولید ربات‌های جنگی بازدارید.

او می‌گوید شرکت‌ها و ارتش‌ها ممکن است جنگ‌هایی را دوست داشته باشند که تلفات در آنها، ماشین‌هایی هستند که به راحتی می‌توان آنها را جایگزین کرد.

در حالی که هینتون معتقد است که مدل‌های زبانی بزرگ(هوش مصنوعی آموزش‌دیده که متنی شبیه به انسان تولید می‌کند، مانند GPT-۴ توسعه یافته توسط شرکت OpenAI) می‌تواند منجر به افزایش چشمگیر بهره‌وری شود، اما او نگران است که طبقه حاکم به سادگی از این مزیت برای غنی‌سازی خود سوءاستفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون می‌گوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر می‌کند».

هینتون همچنین دیدگاه خود را که بسیار نقل قول شده بود، تکرار کرد. او می‌گوید هوش مصنوعی می‌تواند خطری برای موجودیت بشریت ایجاد کند. اگر هوش مصنوعی از انسان باهوش‌تر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.

هینتون افزود: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری است، ما به مشکل می‌خوریم.

از نظر هینتون، این تهدیدها، علمی-تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده است.

هینتون می‌گوید در حال حاضر مشکلات زیادی وجود دارد. او استدلال می‌کند که سوگیری و تبعیض همچنان یک مشکل اساسی است، زیرا داده‌های آموزشی نادرست می‌تواند نتایج ناعادلانه‌ای ایجاد کند. الگوریتم‌ها نیز اتاق‌های پژواک ایجاد می‌کنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت می‌کنند.

در رسانه‌های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس می‌شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده‌ها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت می‌شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی‌روند و دیدگاه‌های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می‌شوند.

هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق‌های پژواک است. او مطمئن نیست که آیا بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.

این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است، اگرچه او هشدار می‌دهد که استفاده سالم از این فناوری ممکن است هزینه بالایی داشته باشد. انسان‌ها ممکن است مجبور باشند کار آزمایشی و تجربی را برای درک اینکه چگونه هوش مصنوعی ممکن است اشتباه کند و این که چگونه از در دست گرفتن کنترل توسط آن جلوگیری کنند، انجام دهند.

وی می‌گوید در حال حاضر تصحیح سوگیری‌ها امکان‌پذیر است. یک مدل زبانی بزرگ می‌تواند به اتاق‌های پژواک پایان دهد، اما تغییرات در سیاست‌های شرکت را بسیار مهم می‌دانم.

این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست می‌دهند، گفت که احساس می‌کند «سوسیالیسم» یا جامعه‌گرایی برای رسیدگی به نابرابری مورد نیاز است و مردم می‌توانند با انتخاب مشاغلی که می‌تواند با گذشت زمان تغییر کند، مانند لوله‌کشی، از بیکاری در امان بمانند. به نظر می‌رسد او شوخی نمی‌کند و معتقد است که جامعه ممکن است مجبور باشد تغییرات گسترده‌ای برای انطباق با هوش مصنوعی در خود ایجاد کند.

شایان ذکر است که هینتون در این موضع‌گیری، تنها نیست. تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامه‌ای سرگشاده امضا و منتشر کرده‌اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شده‌اند. با این حال، سخنان هینتون به عنوان یکی از برجسته‌ترین چهره‌های این صنعت، وزن قابل توجهی دارد.

امیدواری به صنعت هوش مصنوعی

برخی دیگر از مصاحبه‌ها در کنفرانس کالیژن(Collision) امیدوارکننده‌تر بود. کالین مورداک، مدیر بازرگانی گوگل دیپ‌مایند در یک بحث متفاوت گفت که هوش مصنوعی در حال حل برخی از سخت‌ترین چالش‌های جهان است.

وی گفت صحبت زیادی در این زمینه نمی‌شود. گوگل دیپ‌مایند در حال فهرست‌بندی تمام پروتئین‌های شناخته شده، مبارزه با باکتری‌های مقاوم به آنتی‌بیوتیک و حتی تسریع کار بر روی توسعه واکسن‌های مالاریا است.

او از چیزی به عنوان «هوش مصنوعی عمومی» سخن به میان آورد که می‌تواند چندین مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره کرد. وی گفت: ابزار Lookout برای توصیف عکس‌ها مفید است، اما فناوری زیربنایی آن باعث می‌شود جستجو در YouTube Shorts نیز امکان‌پذیر شود.

مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.

مورگان مک‌گوایر، دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از طریق بازی دور هم جمع می‌کند- تا حد زیادی با این موضوع موافق است. او معتقد است که ابزارهای هوش مصنوعی مولدِ سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ایجاد مواد درون بازی را آسان‌تر می‌کنند.

روبلوکس حتی در حال عرضه یک مدل هوش مصنوعی منبع‌باز به نام StarCoder است که امیدوار است با در دسترس‌تر کردن مدل‌های زبانی بزرگ به دیگران کمک کند.

در حالی که مک‌گوایر در یک بحث به چالش‌هایی در مورد مقیاس‌بندی و تعدیل محتوا اذعان کرد، اما او معتقد است که متاورس به لطف مجموعه خلاقانه‌اش، امکانات نامحدودی خواهد داشت.

مورداک و مک‌گوایر هر دو نگرانی‌های مشابهی را با هینتون ابراز کردند، اما لحن آنها قطعاً کمتر هشداردهنده بود.

مورداک تاکید کرد که دیپ‌مایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاوره‌های تخصصی و سرمایه‌گذاری‌های آموزشی گوگل دیپ‌مایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفت‌های شگفت‌انگیز را بدهد.

مک‌گوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه می‌کند، بر مجموعه‌های داده‌ای متنوع تکیه می‌کند و شفافیت را تمرین می‌کند.

امید به آینده

بر خلاف اظهار نظرهایی که جفری هینتون اخیرا داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک گوگل کاهش نیافته است. خودش می‌گوید اگر کارم را در گوگل ترک نمی‌کردم، مطمئنم که روی مدل‌های هوش مصنوعی چندوجهی کار می‌کردم که در آن بینش، زبان و سایر نشانه‌ها به تصمیم‌گیری کمک می‌کند.

وی می‌گوید کودکان کوچک فقط از زبان یاد نمی‌گیرند، ماشین‌ها نیز می‌توانند همین کار را انجام دهند.

در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت می‌تواند هر کاری را که یک انسان می‌تواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-۴ می‌تواند خود را برای حل پازل‌ها و معماهای دشوارتر وفق دهد.

هینتون اذعان می‌کند که سخنرانی‌اش در کنفرانس کالیژن، چیز زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.

او می‌گوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم.

هینتون در پایان، آزادانه اعتراف کرد که با وجود مشکلات اخلاقی احتمالی، از اشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او گفت: من عاشق این چیزها هستم. چطور می‌توان عاشق ساختن چیزهای هوشمند نبود؟

 

منبع: خبرگزاری ایسنا برچسب ها: هوش مصنوعی ، جفری هینتون ، پدرخوانده هوش مصنوعی ، دنیای هوش مصنوعی

منبع: ایران اکونومیست

کلیدواژه: هوش مصنوعی جفری هینتون پدرخوانده هوش مصنوعی دنیای هوش مصنوعی هوش مصنوعی هوش مصنوعی مولد هوش مصنوعی جفری هینتون اتاق پژواک او می گوید دیپ مایند مک گوایر

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت iraneconomist.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایران اکونومیست» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۲۵۹۷۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

اسرائیل از جنگ غزه پیروز بیرون نخواهد آمد

به نقل از خبرگزاری سما فلسطین، ایهود اولمرت در این یادداشت، نوشته است: اکثریت قریب به اتفاق اسرائیلی‌ها معتقدند تنها انگیزه برای گسترش جنگ و حمله به رفح، حفظ آینده سیاسی بنیامین نتانیاهو است؛ زیرا این حمله به هیچ عنوان به سود (رژیم) اسرائیل نیست.

وی مدعی شد: هیچ کس در اسرائیل نیست که مشتاق شنیدن خبر کشته شدن یحیی السنوار رئیس حماس در نوار غزه یا محمد الضیف فرمانده گردان‌های القسام نباشد، اما روند جنگ و اولویت‌های آن نباید تابع اهداف شخصی نتانیاهو باشد.

نخست وزیر سابق رژیم صهیونیستی اضافه کرد: خود نتانیاهو و همچنین افسران ارشد ارتش می‌دانند که تصرف رفح هیچ اهمیتی در ارتباط با منافع استراتژیک اسرائیل ندارد.

اولمرت همچنین گفت: نابود کردن گردان‌های حماس در رفح به دور از شرایط کنونی یک هدف مهم است، زیرا چنین هدفی مستلزم ماه‌ها نبرد طولانی است که منجر به کشته شدن هزاران فلسطینی خواهد شد؛ امری که اعتبار باقی مانده (رژیم) اسرائیل در سطح بین‌المللی را نابود خواهد کرد.

وی افزود: تهاجم به رفح تظاهرات در دانشگاه‌های آمریکا و سراسر جهان را تشدید می‌کند و به صدور حکم دستگیری رهبران و افسران اسرائیلی منجر خواهد شد.

این مقام سابق رژیم صهیونیستی همچنین، تاکید کرد: نتانیاهو در داخل حبابی جدا از واقعیت زندگی می‌کند، زیرا به خود و دیگران در درون آن حباب می‌گوید که برای ادامه حیات (رژیم) اسرائیل می‌جنگد و ماموریت تاریخی او مقابله با جهان برای دفاع از اسرائیل در برابر همه است که می‌خواهند آن را نابود کنند.

اولمرت گفت: نتانیاهو از مدت‌ها قبل فکر کردن درباره آنچه برای اسرائیل، آینده و منافع راهبردی آن بهتر است را متوقف کرده و روی آینده سیاسی خود متمرکز شده است.

وی افزود: درک این نکته حائز اهمیت است که (رژیم) اسرائیل در این رویارویی پیروز بیرون نخواهد آمد و صحبت‌های فخرآمیز درباره پیروزی مطلق نشان دهنده حماقت و غرور و اساساً تلاشی برای فرار از محاکمه است.

نخست وزیر سابق رژیم صهیونیستی در پایان از صهیونیست‌ها خواست تا با حضور میلیونی در خیابان‌ها، گروه نتانیاهو، ایتمار بن‌گویر و بزالل اسموتریچ را محاصره کنند؛ گروهی قانون‌گریز که اسرائیل را به سمت فروپاشی سوق می‌دهند.

باشگاه خبرنگاران جوان بین‌الملل خاورمیانه

دیگر خبرها

  • مرجع اطلاعات بسیاری از مداحان و حتی برخی از روحانیون سرچ گوگل شده است
  • وضع قوانین سختگیرانه گوگل برای محتوای دیپ‌فیک
  • ماکرون: روسیه نباید در اوکراین پیروز شود
  • آگهی‌های هرزنگاری دیپ فیک در گوگل ممنوع می‌شوند
  • پایان سلطه گوگل با این موتور جست‌وجوی جدید
  • وزارت دادگستری آمریکا به دنبال تحریم گوگل است
  • اولمرت: اسرائیل از جنگ غزه پیروز بیرون نخواهد آمد
  • اسرائیل از جنگ غزه پیروز بیرون نخواهد آمد
  • ایموجی صوتی؛ عجیب‌ترین قابلیت گوگل که به تماس‌های صوتی اضافه شد
  • گوگل ایموجی صوتی را به تماس‌ها می‌افزاید