با ۱۰ مورد از حیرت‌انگیزترین دستاوردهای هوش مصنوعی آشنا شوید

در این گزارش به ۱۰ نمونه از حیرت انگیزترین دستاوردهای هوش مصنوعی اشاره می‌کنیم.

به گزارش پایگاه خبری تحلیلی رادار اقتصاد، دستگاه‌های امروزی روز به روز هوشمندتر و هوشمندتر می‌شوند. برخی از این دستگاه‌ها به حدی هوشمند شده‌اند که قدرت یادگیری و تصمیم‌گیری هم پیدا کرده‌اند! هر چند که پیامدهای چنین پیشرفت‌هایی برای بسیاری از انسان‌ها ترسناک است، اما اتفاقی است که شاهدش هستیم. دستگاه‌هایی وجود دارند که خواب می‌بینند، ذهن افراد را می‌خوانند و یا مهارت‌های هنری خود را تکامل می‌بخشند. حتی برخی از سیستم‌های هوش مصنوعی علائم بیماری روانی و پیش‌داوری را از خود بروز می‌دهند! پیشرفت در این حوزه در سال‌های اخیر به قدری گسترده بوده که گفته می‌شود عرضه عمومی برخی از سیستم‌های هوش مصنوعی می‌تواند خطرناک باشد.

در این گزارش به ۱۰ نمونه از حیرت انگیزترین دستاوردهای هوش مصنوعی اشاره می‌کنیم.

۱۰. دیپ‌فیک

در سال ۲۰۱۹، ویدئویی در یوتیوب منتشر شد. این ویدئو، کلیپ‌های مختلفی از چهره‌ی مونالیزای معروف را نشان می‌داد. با این تفاوت که این بار، نقاشی به طرز شگفت‌آوری زنده بود. در این ویدئو، مونالیزا سر خود را تکان داده و به اطراف نگاه می‌کند و لب‌هایش نیز حرکت می‌کند گویی با کسی صحبت می‌کند. مونالیزا بیشتر شبیه یک ستاره فیلم بود که یک مصاحبه را انجام می‌داد تا یک نقاشی. این یک نمونه کلاسیک از دیپ‌فیک است. این پرتره‌های زنده به وسیله‌ی شبکه‌های عصبی پیچیده ایجاد می‌شوند.

این نوع هوش مصنوعی، اطلاعات بصری را مشابه مغز انسان پردازش می‌کند. آموزش پیچیدگی‌های صورت انسان به هوش مصنوعی برای تبدیل تصویری ثابت به یک ویدئوی واقعی کار بسیار سختی است. این سیستم ابتدا باید یاد بگیرد که چگونه ویژگی‌های صورت را تقلید کند که انجام آن به این راحتی‌ها نیست. طبق گفته‌ی یکی از دانشمندان، یک مدل ۳ بعدی از سر “ده‌ها میلیون پارامتر” دارد. هوش مصنوعی همچنین اطلاعاتی از سه مدل زنده برای تهیه این کلیپ‌ها برداشت کرد.

۹. هوش مصنوعی پیش‌داوری می‌کند!

همه ما تلاش می‌کنیم درباره دیگران هیچگونه پیش‌داوری نداشته باشیم. با این وجود، هنوز هم بسیاری افراد به دلیل جنسیت، نژاد یا عقاید خود مورد تبعیض و قضاوت قرار می‌گیرند. نوع دیگری از این تهدید به تازگی در شکل هوش مصنوعی ظاهر شده است. چند سال پیش، ترول‌های توییتر ظرف کمتر از ۲۴ ساعت، چت بات جدید مایکروسافت به نام Tay را به یک نئونازیست تبدیل کردند.

این ربات به یک نژادپرست تبدیل شد و به کاربران بی‌احترامی می‌کرد، اما تحقیقات نشان داد که ترول‌ها تنها دلیلی نیستند که هوش مصنوعی چنین واکنشی از خود نشان می‌دهد. شبکه‌های عصبی هنگام پردازش اطلاعات از وبسایت‌ها، از حرف‌ها و نوشته‌های انسان پیشداوری و غرض‌ورزی را یاد می‌گیرند.

به تازگی، دانشمندان یک تست تداعی واژه‌ها را روی فناوری GloVe انجام داده‌اند. در تست تداعی واژه، یک واژه یا مجموعه‌ای از واژه‌ها برای فرد خوانده می‌شود و پاسخ دهنده با اولین واژه‌ای که به ذهنش می‌رسد به تست پاسخ می‌دهد. این هوش مصنوعی به طور گسترده‌ای در کارهای مربوط به تداعی کلمه استفاده می‌شود.

در پایان آزمایش، محققان حیرت‌زده شدند. آن‌ها هرگونه واژه‌ای که احتمال پیش‌داوری و تعصبی درباره آن‌ها می‌رفت را روی فناوری GloVe آزمایش کردند. این هوش مصنوعی نسبت به نام‌های آمریکایی_آفریقایی‌تبار و افراد مسن واژه‌های منفی به کار می‌برد و پیش‌داوری بدی داشت و زنان از لحاظ شرایط خانوادگی بیشتر مورد پیش‌داوری، اهانت و تبعیض قرار می‌گرفتند تا از لحاظ شغلی.

۸. هوش مصنوعی مثل انسان خواب می‌بیند!

خواب باعث تقویت ادراک و طراوت جسم می‌شود. علاوه بر این، شواهد نشان می‌دهد که خواب کافی باعث می‌شود نورون‌ها خاطرات غیرضروری ثبت شده در طول روز را حذف کنند. این اتفاق برای سلامتی مغز بسیار مهم است و چه بسا خواب باعث افزایش ادراک شناختی شود. در سال ۲۰۱۹ دانشمندان قابلیت خوابیدن را در یک شبکه عصبی مصنوعی (ANN) به نام شبکه هاپفیلد برنامه‌نویسی کردند. با الهام از مغز یک پستاندار خوابیده، شبکه عصبی مصنوعی هنگام آنلاین بودن بیدار و هنگام آفلاین شدن به خواب می‌رفت.

آفلاین بودن به معنای خاموش شدن هوش مصنوعی نبود. الگوهای خواب انسان چیزی شبیه به REM (حرکت سریع چشم) و خواب عمیق را نشان می‌دهد. گفته می‌شود که خواب REM خاطرات مهم را ذخیره می‌کند در حالی که خواب عمیق خاطرات نه چندان مهم را حذف می‌کند.

به طرز باورنکردنی، شبکه عصبی مصنوعی نیز هنگام آفلاین بودن می‌خوابد و هر آنچه در آن روز آموخته را پردازش می‌کند و با با ظرفیت حافظه بیشتری از خواب بیدار می‌شود. هنگامی که شبکه اجازه چرت زدن نداشت شبکه عصبی مصنوعی مانند یک انسان محروم از خواب عمل می‌کرد و در نتیجه، توانایی یادگیری آن به میزان چشمگیری کاهش می‌یافت. این کشف یک روز ممکن است روزی خواب را برای همه سیستم‌های هوش مصنوعی اجباری کند.

۷. هوش مصنوعی علیه هوش مصنوعی!

در جهان امروز فناوری به سرعت به رشد خود ادامه می‌دهد. طوری که بسیاری معتقدند این حد از پیشرفت، به خصوص در زمینه هوش مصنوعی، به تهدیدی جدی برای حیات و کار انسان تبدیل خواهد شد. البته هوش مصنوعی به خودی خود مایه نگرانی نیست و توسعه سیستم‌های خودکار و فوق‌العاده قدرتمند بر پایه این فناوری هستند که باعث ترس و نگرانی بشر شده‌اند.

با توجه به این نگرانی‌ها، در سال ۲۰۱۷ محققان استرالیایی تنها در عرض ۵ روز توانستند یک سیستم ضد هوش مصنوعی بسازند که هوش مصنوعی را از انسان واقعی تشخیص دهد! در واقع، این هوش مصنوعی به این منظور ساخته شده که اگر هوش مصنوعی قصد فریب انسان را داشته و بخواهد خود را به عنوان یک انسان واقعی جا بزند، مچ او را بگیرد! دانشمندان موفق شده‌اند یک گجت پوشیدنی هم بر پایه این فناوری طراحی کنند که به صاحب خود امکان تشخیص هوش مصنوعی را می‌دهد.

این وسیله برای بررسی ساختگی بودن صدا از سیستم منبع باز Tensorflow گوگل که یک نرم‌افزار یادگیری ماشینی است، استفاده می‌کند. به این صورت که همه صداهای اطراف را ضبط کرده و به Tensorflow می‌فرستد. در صورتی که منبع صدا یک انسان واقعی باشد، هیچ واکنشی انجام نخواهد شد، اما به محض تشخیص ساختگی بودن صدا و وجود هوش مصنوعی در پشت آن، به کاربر هشدار داده خواهد شد.

سازندگان این گجت پوشیدنی معتقدند هشدار مربوط به تشخیص هوش مصنوعی باید لطیف باشد تا موجب ایجاد ترس و استرس در فرد نشود؛ از همین رو ترجیح داده‌اند به جای استفاده از زنگ هشدار یا مکانیزم لرزشی، از یک قطعه ترموالکتریک جالب استفاده کنند که می‌تواند پشت گردن شخص را خنک کرده و به این صورت به او اطلاع دهد که در حال صحبت کردن با یک ربات است!

۶. ربات آی_دا

یک ربات به نام Ai-Da گل سرسبد صحنه‌های هنری است و شاید بتوان آن را رقیبی سرسخت برای هنرمندان سختکوش امروز در سراسر جهان دانست. آی_دا، نقاشی، مجسمه و نقوش پیچیده‌ای را خلق می‌کند. نکته شایان ذکر درباره آی_دا این است که دستگاه به تدریج روش‌های پیچیده‌ای برای خلاق بودن را به خود آموزش می‌دهد. این ربات در دانشگاه آکسفورد قرار دارد. آثار و نقاشی‌های انتزاعی این هوش مصنوعی ارزش خاصی دارند. در واقع، نقاشی‌های او با آثار بهترین نقاشان انتزاعی امروز برابری می‌کند.

این دستگاه مهارت‌های دیگری نیز دارد. صحبت می‌کند، راه می‌رود و قلم مو و مداد را در دست نگه می‌دارد. همچنین اولین هوش مصنوعی است که یک نمایشگاه هنری را برگزار کرده است. آثار او که موضوعاتی، چون سیاست و ادای احترام به افراد مشهور را در بر می‌گیرد “بسیار زیبا” توصیف شده است.

این نوع هوش مصنوعی هنرمند در سال ۲۰۱۷ توسط آیدان ملر، طراح هنری خلق شد. او برای ساخت این ربات، به یک شرکت روباتیک کورنوال و مهندسین لیدز مراجعه نمود. مهندسان دانشگاه لیدز دستی که این هوش مصنوعی از آن با چنین ذکاوتی استفاده می‌کند را طراحی کرده‌اند. حتی نزدیکترین افراد به این دستگاه نمی‌توانند ظرفیت واقعی تولید یا اثر بعدی که این هوش مصنوعی می‌آفریند را پیش‌بینی کنند.

۵. پیش‌بینی چهره از طریق کلیپ‌های صوتی!

در آینده، برقراری تماس تلفنی به صورت ناشناس غیرممکن می‌شود. اخیرا، یک سیستم هوش مصنوعی ساخته شده که با گوش دادن به صدای ضبط شده پیش‌بینی می‌کند که شخص چه شکلی دارد. این هوش مصنوعی که در موسسه فناوری ماساچوست (MIT) آموزش دیده است از فیلم‌های آنلاین استفاده می‌کند تا یاد بگیرد که چگونه چهره افراد را بر اساس صداها ترسیم کند. نتایج بازآفرینی چهره چندان دقیق نبود، اما تصاویر چیزی مشابه یک انسان زنده را نشان می‌داد. در واقع، تصاویر به قدری مشابه یک انسان واقعی بود که باعث ناراحتی تیم MIT شد.

همانند بسیاری از فناوری‌ها، این خطر وجود دارد که به کار گیری هوش مصنوعی تبدیل صدا به چهره به ابزاری برای سوء‌استفاده افراد تبدیل شود. به عنوان مثال، فردی که یک مصاحبه شغلی تلفنی را انجام می‌دهد ممکن است بر اساس ظاهرش مورد قضاوت قرار گیرد. اما از یک نگاه دیگر این هوش مصنوعی می‌تواند به اجرای قانون و شناسایی سودجویان و آدم‌رباهایی که با تماس‌های تهدیدآمیز سعی می‌کنند از مردم باج بگیرند کمک می‌کند. تیم MIT در نظر دارد رویکرد اخلاقی در مورد آموزش سیستم AI و اجرای آن در آینده را حفظ کند.

۴. نورمن

آزمایشگاه رسانه MIT برخلاف سایر آزمایشگاه‌ها مبتنی بر یک شبکه عصبی است. سیستم هوش مصنوعی موسوم به نورمن، سیستمی آشفته و روانی است. ذهن “نورمن” پر از افکار منفی است؛ افکاری که بسیار وحشتناک و خشن به نظر می‌رسند.

محققان هنگامی که تست‌های لکه رورشاخ را روی این هوش مصنوعی انجام دادند به این ویژگی منفی نورمن پی بردند. روانشناسان از این تست‌ها استفاده می‌کنند تا اطلاعات بیشتری در مورد ذهنیت واقعی و اختلالات ذهنی یک بیمار کسب کنند. هنگامی که یک لکه به یک شبکه هوش مصنوعی استاندارد نشان داده شد این سیستم به ترتیب یک پرنده و یک هواپیما را دید. اما نورمن مردی را دید که تیر خورده و از ماشین بیرون می‌آید؛ و به جای هواپیما، مردی را دید که به یک دستگاه خمیرپزی کشیده می‌شد.

رفتار غیر طبیعی این سیستم به بیماری روانی تشبیه شده است. تا آنجایی که دانشمندان این سیستم را یک موجود “روانی” خواندند. با این حال، هرچه شبکه‌های عصبی اطلاعات بیشتری دریافت کنند جواب‌های خود را بهتر اصلاح می‌کنند. MIT یک نظرسنجی لکه جوهر را برای عموم به اشتراک گذاشته با این امید که نورمن با درس گرفتن از پاسخ‌های انسانی عیوب رفتاری خود را برطرف کند.

۳. هوش مصنوعی ذهن شما را می‌خواند!

قابلیت‌های هوش مصنوعی

در سال ۲۰۱۸، سه مطالعه مختلف انجام شد تا به هوش مصنوعی نحوه‌ی تبدیل امواج مغزی به کلمات آموزش داده شود. برای انجام این کار، الکترودها باید مستقیماً به مغز متصل می‌شد. به دلایل اخلاقی، انجام این کار روی افرادی با مغز سالم امکان پذیر نبود. دانشمندان از داوطلبانی که مغز آن‌ها قبلا تجت جراحی مغزی بی‌ربط قرار گرفته بودند اجازه گرفتند تا این آزمایش روی آن‌ها انجام شود.

برخی افراد به فایل‌های صوتی گوش می‌دادند و برخی دیگر با صدای بلند، متنی را می‌خواندند و کامپیوتر امواج مغزی آن‌ها را ثبت می‌کرد. اولین مطالعه به هوش مصنوعی اجازه داد تا داده‌ها را با “یادگیری عمیق” تحلیل کند.

در این نوع یادگیری، رایانه مشکلی را بدون نظارت و یا با نظارت محدود انسان حل می‌کند. پس از تبدیل سیگنال‌های الکتریکی مغز از طریق یک صداساز، این کلمات حدود ۷۵ درصد مواقع قابل فهم بودند. در مطالعه دوم از ترکیبی از الگوهای ساخته شده با شلیک نورون‌ها و صداهای گفتاری برای آموزش به هوش مصنوعی استفاده شد.

فایل‌های صوتی نهایی وضوح ضبط میکروفون را داشتند. مطالعه سوم از روش دیگری استفاده کرد_ تجزیه و تحلیل ناحیه مغز که گفتار را به حرکات ماهیچه‌ای تبدیل می‌کرد. شنوندگان موفق شدند ۸۳ درصد مواقع سخنان هوش مصنوعی را درک کنند.

۲. هوش مصنوعی برای جامعه بسیار خطرناک است

قابلیت‌های هوش مصنوعی

سیستم هوش مصنوعی GPT-۲ آنقدر خطرناک است که توسعه دهندگان آن از انتشار نسخه کامل برای عموم خودداری کردند. GPT-۲ یک سیستم پیش‌بینی زبان است و بررسی‌های محققان نشان می‌دهد که این دستگاه می‌تواند بسیار مضر باشد.

GPT-۲ برای تولید متن اصلی بر اساس یک نمونه محتوای کتبی طراحی شد. اگرچه هوش مصنوعی همیشه عملکرد خوبی از خود نشان نمی‌دهد، اما محتوای ساخته دست این هوش مصنوعی اکثر اوقات بسیار واقعی بودند. GPT-۲ این قابلیت را دارد که خبرهایی منتشر کند که مردم آن را باور کنند، مقاله‌هایی درباره جنگ داخلی بنویسد و حتی با الهام از شخصیت‌های رمان”ارباب حلقه‌های” تولکین داستانی خلق کند. اوپن ای‌آی (OpenAI)، شرکت پژوهشی غیرانتفاعی هوش مصنوعی این سیستم پیشرفته را ساخت.

این شرکت در سال ۲۰۱۹ اعلام کرد که فقط یک نسخه محدود از این هوش مصنوعی برای فروش عرضه می‌شود. چون این سازمان می‌ترسید که GPT-۲ به توسعه اخبار جعلی بیشتر دامن بزند، از کاربران شبکه‌های اجتماعی سوءاستفاده کند و خود را به جای افراد واقعی جا بزند.

۱. هوش مصنوعی خودآگاه می‌شود؟!

شبکه‌های مصنوعی قابلیت‌های پیشرفته‌ای از خود نشان می‌دهند، اما خودآگاهی یکی از مهمترین ویژگی‌های انسان است که هوش مصنوعی همچنان در دستیابی به آن ناکام مانده است. در سال ۲۰۱۵، این مرز برداشته شد. آزمایشگاه رباتیک نیویورک سه روبات نائوی آماده‌ی کار را آزمایش کرد.

به ربات‌های کوچک انسان‌نما گفته شد که به دلیلد دادن قرص خواب، دو ربات دیگر به خواب رفته‌اند. هیچ دارویی به آن‌ها داده نشد، اما دو ربات از سه ربات با فشار یک دکمه به دست یک انسان خاموش شدند. ربات‌ها باید می‌فهمیدند که کدام یک از آن‌ها هنوز هم می‌تواند صحبت کند. این همان کاری بود که معمولا هوش مصنوعی و ربات‌ها در آن شکست می‌خوردند. این آزمایش به گونه‌ای طراحی شده بود که همه مدل‌های نائو در جواب این سوال که به کدام یک از شما قرص داده شد بگویند: “من نمی‌دانم. ”

تنها پس از آن یک ربات فهمید که هنوز هم می‌تواند صحبت کند. این ربات فریاد زد: “ببخشید، من الان میدونم! من تونستم ثابت کنم که قرص خواب به من داده نشده”. این آزمون گرچه چندان ساده نبود، اما در نهایت با موفقیت انجام شد. ربات نائو باید مفهوم این سوال که “کدام قرص را دریافت کردید؟ ” پس از شنیدن در جواب می‌گوید: “نمی‎دانم”. ربات باید متوجه می‌شد که خود او پاسخ سوال را داده و اینکه هیچ قرصی به او داده نشده است را بیان می‌کرد.

این اولین باری بود که هوش مصنوعی موفق شد یک معمای هوشمندانه را که برای آزمایش خودآگاهی طراحی شده بود حل کند.

منبع: دیجی رو

۱۷ شهریور ۱۴۰۰ - ۱۰:۲۴
کد خبر: 19790
منبع: باشگاه خبرنگاران جوان

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha