کلمههای مختلفی بعد از شنیدن عبارت “هوش مصنوعی” به ذهن هر کس میرسد. بعضیها چیزی که در فیلمهای هالیوودی مثل ماتریکس، روبات، ترمیناتور دیدهاند به ذهنشان میرسد. بعضی تصور محافظهکارانهتری دارند مثل بازیکنان برپایه هوش مصنوعی در بازیهای ویدیویی یا دستیارهای صوتی مثل کورتانا. همچنین بعضی الگوریتمهای پیچیدهای را تصور میکنند مثل فضای ابری هوشمند که در بعضی کسبوکارها تصمیمگیری میکنند. همهی افراد درست فکر میکنند و اینها هوشی هستند که توسط کامپیوترها و برنامههای آنها کارهای هوشمندانه انجام میدهند.
البته هالیوود خیلی در این زمینه اغراق میکند و همچنین هشدارهایی میدهد مبنی بر اینکه چالشهای اخلاقی ممکن است توسط این تکنولوژی به وجود بیاید. هوش مصنوعی در واقع از سناریوهای یادگیری ماشین به وجود آمده، جایی که انسانها برای سیستمها اطلاعات جمع میکنند که آن را “هوشمند” کنند.
زمانی که انسانها برای سیستمهای هوش مصنوعی تعریف میکنند که چگونه بتوانند دنیا را تحلیل و درک کنند، این سیستمها به گونهای منفی پاسخ میدهند و اکثرا موجب آسیب در جامعهی انسانی میشوند. وقتی که هوش مصنوعی قسمتی از دولت، دستگاه قضائی، سلامتی، اشتغال و دیگر سیستمها شود، ما را مجبور خواهد کرد که مدام رفتارهای آن را کنترل کنیم و نگران آسیب رساندن آن به فرهنگ انسانها باشیم.
1.هوش مصنوعی، آمریکاییهای سیاه پوست، جنسیت و گرایشهای بر مبنای الگوریتم
خیلی از مردم هنوز تلاش میکنند که از اخبار تکنولوژی که از حقیقتهای تلخی مثل تاریخچه نژاد پرستی و مشکلاتی که آمریکاییهای سیاه پوست همچنان تجربه میکنند، میگویند دوری کنند. با درهم آمیخته شدن تکنولوژیها خیلی از کارهای هوشمند ما مثل تشخیص چهره، تمایز قائل نشدن بین نژادهای سیاه و سفید را غیرممکن کرده است.
ما باید بدانیم که سیستمهای کامپیوتری مانند انسانهایی که آنها را میسازند جائزالخطا هستند. و زمانی که به توانایی هوش مصنوعی در تشخیص رنگهای مختلف پوست و جنسیت انسانها میرسیم بعضی از گرایشهای انسانی وارد هوش مصنوعی میشوند. یک تحقیق مشخص کرد که سرویسهای تشخیص چهره مایکروسافت و IBM در تشخیص چهره افراد سیاه پوست و علیالخصوص زنان سیاه پوست بسیار ضعیف عمل میکنند. این سیستم برای افراد سفید پوست کاملا بهتر عمل میکند. گویا از افراد سیاه پوست خیلی کمی در توسعه این سیستم استفاده شده است. این فقط نمونهای بود برای فهمیدن اینکه در تکنولوژی چقدر حق افراد سیاه پوست پایمال میشود. قطعا با آمدن تکنولوژیهای جدید این مشکل حل خواهد شد.
مثلا یکی دیگر از مشکلات نفرتانگیز این بود که سرویس تشخیص عکس گوگل افراد سیاه پوست را به عنوان میمون، شامپانزه یا گوریل تشخیص میداد. در سال 2018 گوگل کلا گوریل و بقیه اینها را از سیستم این سرویس حذف کرد. پس این سیستمها برای افراد سیاه پوست باید از نو طراحی شوند و نیازمند الگوریتمهای هوش مصنوعی بهتری هستند و همچنین افراد بیشتری باید در گزارش مشکلات این سیستمها شرکت کنند.
2.تشخیص قضائی
مایکروسافت در هر زمینهی زندگیها و فرهنگ مثل دولت، خرید و فروش، تحصیل، حملونقل، کسبوکار و غیره هوش مصنوعی را وارد کرده است. هوش مصنوعی در یک سیستم قضائی برای تشخیص اینکه یک مجرم باید آزاد شود یا نه استفاده شد و تشخیص داد که مردی را که سابقه قتل داشت آزاد کند. معلوم شد که دادهی سابقهی مجرم برای هوش مصنوعی تعریف نشده بود که بتواند تصمیم درستی اتخاذ کند.
3.دوربینهای هوشمند
در سال 2016 مایکروسافت دوربین مبتنی بر هوش مصنوعی را معرفی کرد که میتوانست مردم، فعالیتها و اشیا را تشخیص دهد و میتوانست به دادهی اشخاص دسترسی داشته باشد و به طور خودکار عمل کند. استفاده نادرست از این تکنولوژی توسط دولتها، کارگزاران یا کسبوکارهای شخصی برای دنبال کردن افراد، عادتهای آنها، فعالیتهای آنها ثابت شده است. مثلا گوگل در سال پیش توسط کارمندانش مورد اتهام استفاده از تکنولوژی دوربین برای آنالیز دادهی شخصی شد. هاردمارو (hardmaru) در این باره میگوید:
شرکتهای بزرگ باید مراقب مشکلات اخلاقی در دنیایی پیچیده باشند اما این را فراموش نکنید که خود کاربران هستند که تصمیم میگیرند و خوشحالم که تکنولوژیهای هوشمند را در مسیر درستی هدایت میکنند. البته من باور دارم که گوگل نباید وارد مباحث نظامی شود.
4.حوزه سلامت

در حوزه سلامت بسیاری از پزشکها و متخصصها معتقدند که سیاهپوستها درد کمتری از سفید پوستها احساس میکنند. در واقع مسکنها در موقعیتهای مشابه کمتر برای سیاهپوستها تجویز میشوند. هوش مصنوعی نیز قرار است از این همین دادهها در حوزه سلامت استفاده کند.
5.تقریبا انسان
سال پیش گوگل ربات Google Duplex را معرفی کرد که میتوانست جواب تلفنها را بدهد یا قرارهای ملاقات بگذارد در حالی که توسط یک انسان غیرقابل تشخیص بود. نگرانیها آنجا شروع میشوند که کاربران نمیدانند دارند با هوش مصنوعی صحبت میکنند و نه انسان.
مقابله با مشکلهای هوش مصنوعی
مایکروسافت، گوگل و دیگران در حال مقابله با چالشهای اخلاقی هوش مصنوعی هستند. بخشهای داخلی برای آن تشکیل شدهاند و ضعفها و خطرات هوش مصنوعی در شرکتهای مختلف آمریکا گفته میشود. اما همچنان این استانداردها جهانی نشدهاند و کاملا به آنّها توجه نمیشود.
حتی با وجود همهی اینها باز هم مشکلاتی وجود دارد. سال پیش شرکت Axon سازنده دوربینهایی به نام Taser که به لباس پلیسها متصل میشدند مورد اتهام استفاده غیرمعمول از این دوربینها توسط 40 گروه اجتماعی و آکادمیک و حقوقی قرار گرفت.
هوش مصنوعی به قسمتی از فرهنگ جامعه تبدیل شده است، مدیریت و ساخت توسعهی این فناوری باید به گونهای باشد که مثل همهی ما رفتار کند. گروههایی مثل سیاهها برای هوش مصنوعی و زنان در یادگیری ماشینی تلاش میکنند که همین کار را کنند. همچنان شرکتها هوش مصنوعی را در محصولاتی مثل اسپیکرهای هوشمند و تشخیص چهره سریعتر از مواردی مثل سیستمهای حسابداری استفاده میکنند. در آخر خلاصهی حرفهای این مقاله این است که هوش مصنوعی نتواند از ویژگیهای بد ما یاد بگیرد.
- دوشنبه 4 شهریور 1398 20:00
- بدون نظر
- امیر محمد امانی
- _مایکروسافت پنل جدید , اخبار , بررسی , مقالات , یادداشت