2 سال پیش / خواندن دقیقه

چرا نباید در حوزه هوش مصنوعی اخلاقیات را نادیده بگیریم؟ | یادگیری ماشین و ربات

تشخیص حالت احساسی و دروغ با هوش مصنوعی

چرا نباید در حوزه هوش مصنوعی اخلاقیات را نادیده بگیریم؟ | یادگیری ماشین و ربات

بیشتر متخصصانی که به دنیای هوش مصنوعی وارد می‌شوند، ابتدا کار خود را به‌عنوان یک برنامه‌نویس کامپیوتر آغاز می‌کنند و برای مدت‌ها در این حرفه باقی می‌مانند. با این‌ حال، کارشناسان بر این باور هستند که ماشین‌های هوشمند امروزی به اندازه‌ای پیشرفته شده‌اند که می‌توانند حالت احساسی و حتا دروغ را از طریق تحلیل صورت انسان متوجه بشوند که موضوع مهمی برای ناشران تبلیغات و سازمان‌های مختلف است.


امروزه، دانشمندان کامپیوتر در حال ساخت سیستم‌عامل‌هایی هستند که آن‌چه یک میلیارد انسان هر روز می‌بینند را کنترل می‌کنند، خودروهایی را می‌ساند که می‌توانند تصمیم بگیرند که چگونه در خیابان‌ها حرکت کنند و موفق به ساخت سلاح‌هایی شده‌اند که می‌توانند به‌شکل هوشمند به مجرمان شلیک کنند. به عقیده برخی از کارشناسان این رویکردها بیان‌گر سقوط اخلاقی در حوزه فناوری است.



با این‌حال، برخی دیگر از کاربران بر این باور هستند که این درست همان هوشمندی ماشین است. ما در حال استفاده از محاسباتی هستیم که همه تصمیمات ما را مرتب می‌کنند و به تصمیم‌‌گیری‌های ما شکل می‌دهند. جالب آن‌که در برخی موارد به پاسخ‌هایی می‌دهند که هیچ مشخصی برای آن‌ها وجود ندارد و بیشتر ذهنی هستند.

ما پرسش‌هایی شبیه به مواردی مثل شرکت چه کسی را باید استخدام کند، به درخواست دوستی چه فردی باید پاسخ داده، چهره چه افرادی بیشتر شبیه به مجرمان است، کدام بخش خبرها یا فیلم باید به مردم توصیه بشه و موارد این چنینی را از آن‌ها می‌پرسیم و آن‌ها پاسخ می‌دهند.

ما مدت‌ها است در حال استفاده از کامپیوترها هستیم، اما این مرتبه أوضاع فرق کرده است. این یک چرخش تاریخی است، زیرا نمی‌توانیم محاسبات را برای تصمیم‌های ذهنی نگه داریم مانند روش محاسباتی برای پرواز هواپیما، ساخت پل‌ها و نمونه‌های مشابه. آیا هواپیماها امن هستند، آیا این پل فرو می‌ریزد؟ این چنین است، ما براساس معیارهای روشن توافق کردیم و قوانین طبیعت را برای راهنمایی داریم.

ما به سختی در تلاش هستیم تا برای انجام کارهای پیچیده‌تر نرم‌افزارهای قدرتمندری بسازیم، اما این موضوع باعث می‌شود تا شفافیت‌ نرم‌افزارها به واسطه پیچیدگی کمتر. در یک دهه گذشته الگوریتم‌های پیچیده با گام‌های بلندی ساخته شده‌اند. آن‌ها می‌توانند صورت انسان را بازشناسایی کنند، می‌توانند دست خط را تشخیص بدهند، می‌توانند تقلب در کارت اعتباری را کشف کنند و اسپم‌ها را مسدود کنند، می‌توانند زبان‌ها را ترجمه کنند و می توانند تومورها را در تصاویر پزشکی کشف کنند یا در بازی‌های شطرنج و گو پیروز میدان باشند.


چرا نباید در حوزه هوش مصنوعی اخلاقیات را نادیده بگیریم؟ | یادگیری ماشین و ربات

بیشتر این پیشرفت‌ها از روشی به نام یادگیری ماشین آمده‌اند. یادگیری ماشین با برنامه‌نویسی سنتی متفاوت هست که به کامپیوتر جزئیات دقیق دستورات پر زحمت را می‌دهید. این بیشتر شبیه این است که شما یک سیستم گرفته‌اید و اطلاعات زیاد بدون ساختار مثل اطلاعاتی که ما در زندگی دیجیتال خود تولید می‌کنیم. این سیستم بوسیله گردش در بین اطلاعات یاد می‌گیرد. مشکلی که وجود دارد این است که این سامانه‌ها تنها یک پاسخ منطقی ارایه نمی‌کنند و در بیشتر موارد یک پاسخ ساده نمی‌دهد. این سامانه‌ها بیشتر بر مبنای احتمال کار می‌کنند.

مدیر سیستم‌های هوش مصنوعی گوگل این مفهوم را اثر غیر منطقی اطلاعات توصیف کرد. بخش نه چندان داستان این موضوع این است که ما واقعا نمی‌فهمیم سیستم چه یاد می‌گیرد. در حقیقت این قدرت یادگیری ماشین است. این کمتر شبیه دادن دستورالعمل به کامپیوتر است، این بیشتر شبیه یاد دادن به یک ماشین زنده است. ما واقعا نمی‌فهمیم و کنترل نمی‌کنیم. این مشکل اصلی سامانه‌های هوشمند است. مشکلی است که باعث می‌شود سیستم هوش مصنوعی چیزها را اشتباه یاد بگیرد و تا هنگامی که نکات را به شکل درستی می‌آموزد بازهم قادر به توصیف دقیق انجام این‌کار نیستیم. ما نمی‌دانیم یک ماشین هوشمند در حال فکر کردن به چه چیزی است.

یک الگوریتم استخدام را تصور کنید. سیستمی که مردم را با استفاده از سیستم یادگیری ماشین استخدام می‌کند. سیستمی که بر اساس اطلاعات کارمندان قبلی آموزش دیده شده و دستور دارد که پیدا و استخدام کند افرادی که بهروری بالایی برای شرکت دارند. به نظر خوب میاد. مدیران منابع انسانی و مدیران اجرایی که از این سیستم‌های برای استخدام استفاده می‌کردند، خیلی هیجان زده بودند. آن‌ها فکر می‌کردند که این رویکرد، استخدام را بیشتر هدفمند و کمتر مغروضانه خواهد کرد و به افراد شانس بهتری می‌دهد که بدون غرض‌ورزی مدیران منابع انسانی استخدام شوند.

با این‌حال، این سامانه‌ها به تدریج به سمت پیچیده‌تر شدن گام بر می‌دارند. به‌تازگی سیستم‌های محاسبه‌گر می‌توانند به همه چیزهای شما از طریق خرده اطلاعات دیجیتالی پی‌ببرند، حتی اگر شما آن چیزها را فاش نکرده باشید. آن‌ها به گرایش‌های اجتماعی، ویژگی‌های شخصی‌تان و دانسته‌های شما دسترسی خواهند داشت و توانسته‌اند به قدرت پیش‌بینی با دقت زیادی دست پیدا کنند. جالب آن‌که برای چیزهایی که حتی آن‌ها را فاش نکرده‌اید قادر به نتیجه‌گیری‌ و استنتاج هستند.

به‌طور مثال، برخی از توسعه‌دهندگان الگوریتم‌های یادگیری ماشین در حال کار روی سیستم‌های محاسبه‌گری هستند تا شانس افسردگی افراد را با استفاده از اطلاعات شبکه‌های اجتماعی پیش‌بینی کنند و جالب آن‌که در برخی موارد نتایج هیجان‌انگیز ارایه می‌کنند. سیستم احتمال افسردگی را می‌تواند ماه‌ها قبل از شروع علائم بیماری پیش‌بینی کند. جالب آن‌که بیمار هیچ علامتی از بیماری ندارد، اما سامانه پیش‌بینی می‌کند. بدون شک در حوزه روان‌شناسی این یک دستاورد بزرگ است، اما یک چنین حالتی را در فضای استخدام تصور کنید.

فرض کنید یک سامانه استخدام هوشمند یک متخصص حرفه‌ای را به دلیل احتمال بالای افسردگی در آینده، استخدام نکند، در حالی که فرد در زمان استخدام شدن هیچ نشانه‌ای از افسردگی را ندارد و ممکن است در آینده به احتمال زیاد دچار افسردگی شوند یا اگر زنانی که احتمال دارد در یکی دو سال آینده باردار شوند، اما اکنون حامله نیستد را کنار بگذارد؟

برخی کارشناسان برای مقابله با این حالت‌های تدافعی سامانه‌های هوشمند، مکانیزم حفاظت چیست را مطرح کرده‌اند و اعلام کرده‌اند بهتر است الگوریتم‌های یادگیری ماشین به چیزی شبیه به یک جعبه سیاه تجهیز شوند.

مسئله دیگری که وجود دارد این است که سامانه‌های هوشمند اغلب روی اطلاعات تولید شده توسط کارهای ما آموزش داده می‌شوند تا آثار به جای مانده از انسان. آن‌ها فقط می‌توانند تمایلات ما را منعکس کنند. این سیستم‌ها می‌توانند تمایلات ما را انتخاب کنند و آن‌را تقویت کرده و آن‌را دوباره به ما نشان دهند، در حالی که به خودمان می‌گویم: ما فقط در حال بررسی هستیم.

چرا نباید در حوزه هوش مصنوعی اخلاقیات را نادیده بگیریم؟ | یادگیری ماشین و ربات

یکی از موارد خطرناک در پیش‌بینی‌های مغرضانه خلاصه می‌شود. در نمونه‌ای در یکی از شهرهای امریکا فردی به شش سال زندان برای فرار از دست پلیس محکوم شد. خیلی از کاربران از این نکته اطلاعی ندارند، اما الگوریتم‌های هوشمند به‌طور افزاینده‌ای در آزادی مشروط و صدور حکم به کار گرفته می‌شوند. بسیاری سوال می‌کنند که آن‌ها چگونه این کار را انجام می‌دهند؟ پروپابلیکا، یک موسسه تحقیقاتی غیرانتفاعی خیلی از الگوریتم‌ها را با اطلاعات عمومی که آن‌ها پیدا کرده‌اند مورد بررسی قرار داده‌اند و دریافتند که این پیش‌بینی‌ها مبتنی بر تمایلات بوده و این قدرت پیش‌بینی اشتباه، نه فقظ شانسی ( بلکه به عمد) و به‌طور اشتباه نرخ مجرمان بودن متهمان سیاه‌پوست نسبت به سفید پوست را دو برابر بیشتر در نظر گرفته است.

این سیستم‌ها می‌توانند اشتباه این‌چنینی را به‌راحتی مرتکب شوند. آیا شما واتسون، سیستم ماشین هوشمند آی‌بی‌ام که با انسان مسابقه جوپرتری را داد به خاطر دارید؟ واتسون بازیگر خوبی در مسابقه بود. اما در آخرین جوپرتی از واتسون پرسیده شد «آیا بزرگترین فرودگاه که برای یک قهرمان جنگ جهانی دوم در ایالات متحده نام‌گذاری شد را می‌داند؟ شرکت‌کنندگان شیکاگو را پاسخ دادند در حالی که واتسون در طرف دیگر پاسخ داد تورنتو! سیستم به شکل روشنی اشتباهی را مرتکب شده بود که هیچ انسانی انجام نمی‌دهد.

ماشین هوشمند می‌تواند یک چنین اشتباهات خطرناکی را مرتبک شوند، با این‌حال در جاهایی که انتظار و آمادگی آن‌را ندارید، پیامدهای این اشتباه فاجعه‌آمیز خواهد بود. به ویژه در موقعیت‌هایی که به دلیل خرده رفتارها در روال عادی زندگی یک انسان مانع استخدام او شوند.

در ماه می 2010، یک خرابی کوتاه مدت ناشی در در الگوریتم فروش وال استریت باعث خرابی چند میلیون دلاری تنها در مدت زمان 36 دقیقه شد. حال تصور کنید چنین خطایی در ارتباط با سلاح‌های نظامی رخ دهد.

واقعیت این است که این انسان‌ها هستند که همیشه تمایلات را می‌سازند. الگوریتم‌های هوش مصنوعی بیشتر از انسان‌ها دچار اشتباه می‌شوند و ما نمی‌توانیم از این مسئله فرار کنیم. نمی‌توانیم مسئولیت‌هایمان در قبال ماشین‌ها را نادیده بگیریم.  هوش مصنوعی نمی‌تواند به ما یک کارت خارج شدن از اخلاق به صورت رایگان بدهد.

دانشمند اطلاعات، فرد بنسون این را شستشوی ریاضی می‌نامد. ما مسولیت انجام هرگونه رفتاری که الگوریتم‌ها مرتکب می‌شوند را باید بپذیریم. ما باید قبول کنیم که محاسبات ریاضی برای ارزش انباشته و به هم ریخته و امور انسانی عینیت ندارد. می‌توانیم از محاسبات استفاده کنیم تا به تصمیمات بهتری برسیم، اما نباید از بحث اخلاق در فناوری غافل شویم. هوش مصنوعی در کنار ما است و این بدان معنا است که باید محکم‌تر ارزش‌ها و اخلاق انسانی را نگه داریم.

شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع