وبسایت منتشر کننده: سایت علمی بیگ بنگ
مترجم: رضا کاظمی
منبع: The Conversation
بیگ بنگ: ممکن است شنیده
باشید که الگوریتمها دنیا را احاطه کردهاند. اما این الگوریتمها امروزه چگونه
عمل میکنند؟ در اینجا ما نگاهی به الگوریتمهای کار میاندازیم.
به
گزارش بیگ بنگ، الگوریتم ماشینهای یادگیری کورکورانه برای هدف ریاضی تعیین شده
توسط طراحان آنها کار میکنند. ضروری است که این کار، رفتار اخلاقی را در نظر
بگیرد. چنین سیستمهایی از محبوبیت بسیاری برخوردارند. شرکتها از آنها استفاده میکنند
تا تصمیم بگیرند که شما چه خبری را ببینید و یا با چه کسی به صورت آنلاین قرار
بگذارید.
دولت ها
شروع به گسترش تولید ماشینهای یادگیری برای کمک به ارائه خدمات دولتی و انتخاب
افراد برای بازرسی نمودهاند. با این حال، الگوریتمهایی که این سیستمها را اداره
می کنند بسیار سادهتر از آن میباشند که شما ممکن است تصور کنید. آنها با یک
ماشین حساب جیبی بیشتر از ربات علمی- تخیلی رمان آیزاک آسیموف وجه اشتراک دارند.
به طور پیش فرض، آنها زمینۀ فعالیت و پیامدهای اخلاقی تصمیمات خود را درک نمیکنند.
پیشبینیهای
الگوریتم ماشین یادگیری از کلیت بخشیدن به مثال داده میشود، و نه دانش کارشناس.
به عنوان مثال، یک الگوریتم ممکن است از وضعیت مالی شما برای پیشبینی شانس شما به
طور پیش فرض در وام استفاده کند. این الگوریتم در مورد امور مالی مشتریان تاریخی
که پیش فرض را انجام داده یا نداده باشند، آموزش داده میشود. به همین علت، سیستم
اخلاقی یک ماشین یادگیری باید به عنوان یک فرمول ریاضی صریح ارائه شود و این
مسئله، کار سادهای نیست.
یادگیری
از دادهها
جایی که
من کار میکنم، سیستم ماشینهای یادگیری را برای دولت و همچنین شرکتهای داخلی و
خارجی طراحی و ساخته است که شامل چندین پروژه است که در آن رفتار محصول، دارای
پیامدهای اخلاقی است. یک دانشگاه که تصمیم میگیرد به رویکرد پیش رو برای ثبت نام
دانش آموزان نظری بیاندازد را تصور کنید: به جای اینکه انتخاب خود را بر اساس
نمرات قبلی انجام دهد، دانشگاه دانشجو را با پیشبینی عملکرد خوبش، ثبت نام میکند.
دانشگاه
میتواند برای این پیشبینی از الگوریتم ماشین یادگیری و اطلاعات تاریخی در مورد
متقاضیان قبلی و عملکرد آنها، استفاده کند. چنین آموزشهایی به روش بسیار خاصی
صورت میگیرد. الگوریتم دارای پارامترهای بسیاری است که رفتارهای آن را کنترل میکند
و آموزش شامل بهینهسازی پارامترها برای برآوردن اهداف خاص ریاضی مرتبط با دادهها
میباشد. سادهترین و رایجترین هدف این است که (الگوریتم) قادر به پیشبینی دادههای
آموزشی به طور دقیق باشد. برای دانشگاه، این هدف
الگوریتمی دارد که میتواند نمرات متقاضیان را به درستترین حد ممکن پیشبینی کند.
اهداف
اخلاقی
اما یک
هدف پیشبینی شده ساده مانند “ایجاد کوچکترین اشتباهات ممکن” میتواند به طور
غیرمستقیم تصمیمگیری غیر اخلاقی ایجاد کند.
چندین
مورد مهم که اغلب توسط این هدف مورد استفاده قرار گرفتهاند را در نظر بگیرید:
۱- افراد مختلف، اشتباهات مختلف
از آنجا
که الگوریتم به طور متوسط، تنها در مورد میزان اشتباهات خود بر روی تمام دادههای آموزش توجه میکند، ممکن است “دقیق بودن”ها در
افراد مختلف، متفاوت باشد. این اثر اغلب برای اقلیتها به وجود میآید: در دادههای
آموزشی میزان کمتری از آنها وجود دارد، بنابراین الگوریتم برای تخمین ضعیفی از نمرات
آنها، بدان صورت تاوان نمیدهد.
به عنوان
مثال، برای یک دانشگاه، ممکن است الگوریتم پیشبینی نمرات در یک دوره مربوط به
مردان ۹۰٪ دقیق باشد، اما برای زنان ۵۰٪. برای مقابله با این مسئله، دانشگاه باید الگوریتم دقت را به همان اندازه
هم برای مردان و هم برای زنان تغییر دهد.
۲- الگوریتم قابل اطمینان نیست.
الگوریتمهای
ماشین یادگیری ساده، “بهترین حدس” را پیش بینی میکنند، اما الگوریتمهای پیچیدهتر
قادر به ارزیابی میزان اطمینان خود در این پیشبینی هستند. اطمینان از اعتماد دقیق
نیز میتواند بخش مهمی از هدف الگوریتم باشد. به عنوان مثال، دانشگاه ممکن است
بخواهد یک اصل اخلاقی مانند «سود شک و تردید» را برای متقاضیان با علائم پیشبینی
نشده مشخص کند.
۳-تعصب تاریخی
الگوریتم
دانشگاه یاد گرفته که به طور کامل از دادههای تاریخی، پیشبینی خود را انجام دهد.
اما اگر استادانی که نمرات این دادهها را میدهند، تعصب داشته باشند (مثلا در
برابر یک اقلیت خاص)، پیشبینیهای جدید نیز تعصب مشابهی خواهند داشت. دانشگاه
باید برای جبران آن با تغییر هدف الگوریتم، این تعصب را در پذیرش آیندهاش حذف
کند.
۴-اولویت های متضاد
سختترین
عامل ایجاد یک هدف ریاضی مناسب این است که ملاحظات اخلاقی اغلب در تضاد هستند. برای
دانشگاه، افزایش دقت الگوریتم برای یک گروه اقلیت، دقت آن را برای دیگر گروهها
کاهش میدهد. هیچ سیستم پیشبینی کامل نیست و محدودیتهای آنها همیشه بر برخی
دانشجویان بیشتر از دیگران تأثیر میگذارد. تعادل این عوامل رقابت کننده در یک هدف
واحد ریاضی یک مسئله پیچیده و بدون پاسخ واحد است.
ساختمان
الگوریتمهای اخلاقی
این تنها
چند مورد از ملاحظات اخلاقی پیچیده برای یک مسئله به ظاهر ساده است. پس چگونه این
دانشگاه، یا یک شرکت یا دولت، رفتار اخلاقی سیستم ماشینهای یادگیری خود را تضمین
میکنند؟ در اولین قدم، آنها میتوانند یک مهندس اخلاق برگزینند. وظیفه این
مهندسین این است که الزامات اخلاقی سیستم را از طراحانش استنباط کنند سپس آنها را
به یک هدف ریاضی تبدیل تبدیل کرده و توانایی الگوریتم را برای رسیدن به این هدف در
هنگام تولید، کنترل کنند.
متأسفانه،
این نقش در حال حاضر روی حوزه عمومی “دانشمند داده” (اگر اصلا وجود داشته باشد)
متمرکز شده و مورد توجه قرار نگرفته است. تولید یک ماشین یادگیری اخلاقی کار سادهای
نیست بلکه نیاز به تعادل اولویتهای رقابتی، درک انتظارات اجتماعی و حسابداری برای
انواع معایب میباشد. اما این تنها راه برای دولتها و شرکتهاست تا مطمئن شوند
استانداردهای اخلاقی جامعه انتظار حمایت دارند.
وبسایت منتشر کننده: سایت علمی بیگ بنگ
مترجم: رضا کاظمی
منبع: The Conversation