_مایکروسافت پنل جدید

5 ریسکی که هوش مصنوعی برای مایکروسافت و دیگر غول‌های تکنولوژی به همراه دارد با روی خوب و بد این تکنولوژی آشنا شوید

کلمه‌های مختلفی بعد از شنیدن عبارت “هوش مصنوعی” به ذهن هر کس می‌رسد. بعضی‌ها چیزی که در فیلم‌های هالیوودی مثل ماتریکس، روبات، ترمیناتور دیده‌‌اند به ذهنشان می‌رسد. بعضی تصور محافظه‌کارانه‌تری دارند مثل بازیکنان برپایه هوش مصنوعی در بازی‌های ویدیویی یا دستیارهای صوتی مثل کورتانا. همچنین بعضی الگوریتم‌های پیچیده‌ای را تصور می‌کنند مثل فضای ابری هوشمند که در بعضی کسب‌وکارها تصمیم‌گیری می‌کنند. همه‌ی افراد درست فکر می‌کنند و این‌ها هوشی هستند که توسط کامپیوترها و برنامه‌های آن‌ها کارهای هوشمندانه انجام می‌دهند.

البته هالیوود خیلی در این زمینه اغراق می‌کند و همچنین هشدارهایی می‌دهد مبنی بر اینکه چالش‌های اخلاقی ممکن است توسط این تکنولوژی به‌ وجود بیاید. هوش مصنوعی در واقع از سناریو‌های یادگیری ماشین به وجود آمده، جایی که انسان‌ها برای سیستم‌ها اطلاعات جمع‌ می‌کنند که آن را “هوشمند” کنند.

زمانی‌ که انسان‌ها برای سیستم‌های هوش مصنوعی تعریف می‌کنند که چگونه بتوانند دنیا را تحلیل و درک کنند، این سیستم‌ها به گونه‌ای منفی پاسخ می‌دهند و اکثرا موجب آسیب در جامعه‌ی انسانی می‌شوند. وقتی که هوش مصنوعی قسمتی از دولت، دستگاه قضائی، سلامتی، اشتغال و دیگر سیستم‌ها شود، ما را مجبور خواهد کرد که مدام رفتارهای آن را کنترل کنیم و نگران آسیب رساندن آن به فرهنگ انسان‌ها باشیم.

1.هوش مصنوعی، آمریکایی‌های سیاه پوست، جنسیت و گرایش‌های بر مبنای الگوریتم

خیلی از مردم هنوز تلاش می‌کنند که از اخبار تکنولوژی که از حقیقت‌های تلخی مثل تاریخچه نژاد پرستی و مشکلاتی که آمریکایی‌های سیاه پوست همچنان تجربه می‌کنند، می‌گویند دوری کنند. با درهم آمیخته شدن تکنولوژی‌ها خیلی از کارهای هوشمند ما مثل تشخیص چهره، تمایز قائل نشدن بین نژاد‌های سیاه و سفید را غیرممکن کرده است.

ما باید بدانیم که سیستم‌های کامپیوتری مانند انسان‌هایی که آن‌ها را می‌سازند جائز‌الخطا هستند. و زمانی که به توانایی هوش مصنوعی در تشخیص رنگ‌های مختلف پوست و جنسیت انسان‌ها می‌رسیم بعضی از گرایش‌های انسانی وارد هوش مصنوعی می‌شوند. یک تحقیق مشخص کرد که سرویس‌‌های تشخیص چهره مایکروسافت و IBM در تشخیص چهره افراد سیاه پوست و علی‌الخصوص زنان سیاه پوست بسیار ضعیف عمل می‌کنند. این سیستم برای افراد سفید پوست کاملا بهتر عمل می‌کند. گویا از افراد سیاه پوست خیلی کمی در توسعه این سیستم استفاده شده است. این فقط نمونه‌ای بود برای فهمیدن اینکه در تکنولوژی چقدر حق افراد سیاه‌ پوست پایمال می‌شود. قطعا با آمدن تکنولوژی‌های جدید این مشکل حل خواهد شد.

مثلا یکی دیگر از مشکلات نفرت‌انگیز این بود که سرویس تشخیص عکس گوگل افراد سیاه پوست را به عنوان میمون، شامپانزه یا گوریل تشخیص می‌داد. در سال 2018 گوگل کلا گوریل و بقیه این‌ها را از سیستم این سرویس حذف کرد. پس این سیستم‌ها برای افراد سیاه پوست باید از نو طراحی شوند و نیازمند الگوریتم‌های هوش مصنوعی بهتری هستند و همچنین افراد بیشتری باید در گزارش مشکلات این سیستم‌ها شرکت کنند.

2.تشخیص‌ قضائی

مایکروسافت در هر زمینه‌‌ی زندگی‌ها و فرهنگ مثل دولت، خرید و فروش، تحصیل، حمل‌ونقل، کسب‌وکار و غیره هوش مصنوعی را وارد کرده است. هوش مصنوعی در یک سیستم قضائی برای تشخیص اینکه یک مجرم باید آزاد شود یا نه استفاده شد و تشخیص داد که مردی را که سابقه قتل داشت آزاد کند. معلوم شد که داده‌ی سابقه‌ی مجرم برای هوش مصنوعی تعریف نشده بود که بتواند تصمیم درستی اتخاذ کند.

3.دوربین‌های هوشمند

در سال 2016 مایکروسافت دوربین مبتنی بر هوش مصنوعی را معرفی کرد که می‌توانست مردم، فعالیت‌ها و اشیا را تشخیص دهد و می‌توانست به داده‌ی اشخاص دسترسی داشته باشد و به‌ طور خودکار عمل کند. استفاده نادرست‌ از این تکنولوژی توسط دولت‌ها، کارگزاران یا کسب‌وکارهای شخصی برای دنبال کردن افراد، عادت‌های آن‌ها، فعالیت‌های آن‌ها ثابت شده است. مثلا گوگل در سال پیش توسط کارمندانش مورد اتهام استفاده از تکنولوژی دوربین برای آنالیز داده‌ی شخصی شد. هاردمارو (hardmaru) در این باره می‌گوید:

شرکت‌های بزرگ باید مراقب مشکلات اخلاقی در دنیایی پیچیده باشند اما این را فراموش نکنید که خود کاربران هستند که تصمیم می‌گیرند و خوشحالم که تکنولوژی‌های هوشمند را در مسیر درستی هدایت می‌کنند. البته من باور دارم که گوگل نباید وارد مباحث نظامی شود.

4.حوزه سلامت

Artificial intelligence

در حوزه سلامت بسیاری از پزشک‌ها و متخصص‌ها معتقدند که سیاه‌پوست‌ها درد کمتری از سفید پوست‌ها احساس می‌کنند. در واقع مسکن‌ها در موقعیت‌های مشابه کمتر برای سیاه‌پوست‌ها تجویز می‌شوند. هوش مصنوعی نیز قرار است از این همین داده‌ها در حوزه سلامت استفاده کند.

5.تقریبا انسان

سال پیش گوگل ربات Google Duplex را معرفی کرد که می‌توانست جواب تلفن‌ها را بدهد یا قرارهای ملاقات بگذارد در حالی که توسط یک انسان غیرقابل تشخیص بود. نگرانی‌ها آنجا شروع می‌شوند که کاربران نمی‌دانند دارند با هوش مصنوعی صحبت می‌کنند و نه انسان.

مقابله با مشکل‌های هوش مصنوعی

مایکروسافت، گوگل و دیگران در حال مقابله با چالش‌های اخلاقی هوش مصنوعی هستند. بخش‌های داخلی برای آن تشکیل شده‌اند و ضعف‌ها و خطرات هوش‌ مصنوعی در شرکت‌های مختلف آمریکا گفته می‌شود. اما همچنان این استانداردها جهانی نشده‌اند و کاملا به آن‌ّها توجه نمی‌شود.

حتی با وجود همه‌ی این‌ها باز هم مشکلاتی وجود دارد. سال پیش شرکت Axon سازنده دوربین‌هایی به نام Taser که به لباس پلیس‌ها متصل می‌شدند مورد اتهام استفاده غیرمعمول از این دوربین‌ها توسط 40 گروه‌ اجتماعی و آکادمیک و حقوقی قرار گرفت.

هوش مصنوعی به قسمتی از فرهنگ جامعه تبدیل شده است، مدیریت و ساخت توسعه‌ی این فناوری باید به گونه‌ای باشد که مثل همه‌ی ما رفتار کند. گروه‌هایی مثل سیاه‌ها برای هوش مصنوعی و زنان در یادگیری ماشینی تلاش می‌کنند که همین کار را کنند. همچنان شرکت‌ها هوش مصنوعی را در محصولاتی مثل اسپیکر‌های هوشمند و تشخیص چهره سریع‌تر از مواردی مثل سیستم‌‌های حسابداری استفاده می‌کنند. در آخر خلاصه‌ی حرف‌های این مقاله این است که هوش مصنوعی نتواند از ویژگی‌های بد ما یاد بگیرد.

منبع :

WINDOWSCENTRAL

72 پست
امیر محمد امانی
مطالب مرتبط
تبلیغات
دیدگاه کاربران
هنوز دیدگاهی ثبت نشده
برای نوشتن دیدگاه می توانید به حساب کاربری خود وارد شوید ورود ارسال نظر به صورت مهمان
برچسب ها: , , , , , , , , , ,