مقررات نوین برای هوش مصنوعی و مسیر اینده
مقررات نوین برای هوش مصنوعی و مسیر
مقررات نوین برای هوش مصنوعی
مقررات نوین هوش مصنوعی
چگونه برای امر اجتناب ناپذیر آماده شویم
توسط
-
توییت
-
پست
-
اشتراک گذاری
-
صرفه جویی
-
خرید کپی
-
چاپ
در بیشتر دهه گذشته ، نگرانی های عمومی در مورد فناوری دیجیتال بر سوء استفاده بالقوه از داده های شخصی متمرکز شده است. مردم از روشی که شرکتها میتوانند تحرکات خود را به صورت آنلاین ردیابی کنند، معمولاً شماره کارت اعتباری، آدرس و سایر اطلاعات مهم را جمعآوری میکنند، ناراحت بودند. آنها دریافتند که دنبال کردن آنها در سراسر وب توسط تبلیغاتی که به وضوح توسط جستجوهای بیهوده آنها ایجاد شده بود، وحشتناک بود و نگران سرقت هویت و کلاهبرداری بودند.
این نگرانیها منجر به تصویب تدابیری در ایالات متحده و اروپا شد که به کاربران اینترنت تا حدی کنترل بر دادهها و
تصاویر شخصی آنها را تضمین میکرد – به ویژه، مقررات عمومی حفاظت از دادههای اتحادیه اروپا در سال 2018
(GDPR). البته، این اقدامات به بحث در مورد استفاده شرکت ها از داده های شخصی پایان نداد. برخی استدلال
می کنند که مهار آن عملکرد اقتصادی اروپا و ایالات متحده را نسبت به کشورهایی که محدودیت کمتری دارند، به
ویژه چین، که غول های دیجیتالی آن با کمک دسترسی آماده و با نظارت آسان به اطلاعات شخصی از همه نوع،
پیشرفت کرده اند، مختل خواهد کرد. (اما اخیراً دولت چین شروع به محدود کردن آزادی شرکتهای دیجیتال کرده
است – همانطور که جریمههای سنگین تحمیل شده بر علی بابا نشان میدهد). رقبای آمریکایی با جیب عمیق تر
مانند گوگل و آمازون.
اما بحث وارد مرحله جدیدی می شود. از آنجایی که شرکتها به طور فزایندهای هوش مصنوعی را در محصولات،
خدمات، فرآیندها و تصمیمگیریهای خود تعبیه میکنند، توجه به نحوه استفاده از دادهها توسط نرمافزار معطوف
میشود – بهویژه توسط الگوریتمهای پیچیده و در حال تکاملی که ممکن است سرطان را تشخیص دهد، رانندگی
کند یا یک بیماری را تأیید کند. وام. اتحادیه اروپا که مجدداً پیشرو است (در مقاله سفید 2020 خود “در مورد هوش
مصنوعی – رویکرد اروپایی به تعالی و اعتماد” و پیشنهاد 2021 خود برای چارچوب قانونی هوش مصنوعی)، مقررات
را برای توسعه ابزارهای هوش مصنوعی ضروری می داند. که مصرف کنندگان بتوانند به آن اعتماد کنند.
همه اینها چه معنایی برای شرکت ها خواهد داشت؟ ما در حال تحقیق در مورد چگونگی تنظیم الگوریتمهای
هوش مصنوعی و نحوه پیادهسازی سیستمهای هوش مصنوعی بودهایم که بر اساس اصول کلیدی زیربنای
چارچوبهای نظارتی پیشنهادی هستند، و به شرکتها در سراسر صنایع کمک کردهایم تا ابتکارات مبتنی بر هوش
مصنوعی را راهاندازی و مقیاسبندی کنند. در صفحات بعدی از این کار و سایر محققان استفاده میکنیم تا سه
چالش اصلی که رهبران کسبوکار با آن روبرو هستند را بررسی کنیم، زیرا هوش مصنوعی را در تصمیمگیری و
فرآیندهای خود ادغام میکنند و در عین حال تلاش میکنند از ایمن و قابل اعتماد بودن آن برای مشتریان اطمینان
حاصل کنند. ما همچنین چارچوبی را برای هدایت مدیران اجرایی از طریق آن وظایف ارائه می دهیم که تا حدی از
مفاهیم اعمال شده در مدیریت ریسک های استراتژیک استفاده می کند.
نتایج ناعادلانه: خطرات استفاده از هوش مصنوعی
سیستمهای هوش مصنوعی که نتایج مغرضانه تولید میکنند، سرفصل خبرها بودهاند. یکی از نمونه های شناخته
شده الگوریتم کارت اعتباری اپل است که به تبعیض علیه زنان متهم شده است و تحقیقاتی را توسط دپارتمان
خدمات مالی نیویورک آغاز کرده است.
اما این مشکل در بسیاری از چهرههای دیگر ظاهر میشود: به عنوان مثال، در الگوریتمهای تبلیغات آنلاین فراگیر،
که ممکن است بینندگان را بر اساس نژاد، مذهب یا جنسیت هدف قرار دهند، و در غربالگری رزومه خودکار آمازون،
که نامزدهای زن را فیلتر میکند. مطالعه اخیر منتشر شده در Science نشان داد که ابزارهای پیشبینی خطر مورد
استفاده در مراقبتهای بهداشتی، که هر ساله میلیونها نفر را در ایالات متحده تحت تأثیر قرار میدهند، سوگیری
نژادی قابل توجهی را نشان میدهند. مطالعه دیگری که در مجله پزشکی داخلی عمومی منتشر شد، نشان داد
که نرمافزاری که توسط بیمارستانهای پیشرو برای اولویتبندی گیرندگان پیوند کلیه استفاده میشود، علیه
بیماران سیاهپوست تبعیض قائل میشود.
هوش مصنوعی مقیاس بالقوه سوگیری را افزایش میدهد: هر نقصی میتواند میلیونها نفر را تحت تأثیر قرار دهد
و شرکتها را در معرض شکایتهای دسته جمعی قرار دهد.
در بیشتر موارد مشکل از داده های مورد استفاده برای آموزش هوش مصنوعی ناشی می شود. اگر آن داده ها
بایاس باشد، هوش مصنوعی به دست می آورد و حتی ممکن است بایاس را تقویت کند. به عنوان مثال، زمانی که
مایکروسافت از توییتها برای آموزش یک ربات چت برای تعامل با کاربران توییتر استفاده میکرد، مجبور شد ربات را
یک روز پس از پخش زنده به دلیل پیامهای تحریکآمیز و نژادپرستانه حذف کند. اما صرفاً حذف اطلاعات جمعیت
شناختی مانند نژاد یا جنسیت از داده های آموزشی کافی نیست، زیرا در برخی شرایط برای تصحیح سوگیری ها
به این داده ها نیاز است.
در تئوری، ممکن است بتوان برخی از مفاهیم انصاف را در نرم افزار کدگذاری کرد، که مستلزم آن است که همه
نتایج دارای شرایط خاصی باشند. آمازون در حال آزمایش یک معیار انصاف به نام نابرابری جمعیتی مشروط است و
سایر شرکتها در حال توسعه معیارهای مشابه هستند. اما یک مانع این است که هیچ تعریف توافق شده ای از
انصاف وجود ندارد، و همچنین نمی توان در مورد شرایط کلی که نتایج عادلانه را تعیین می کند، قاطعانه بود. علاوه
بر این، ذینفعان در هر موقعیتی ممکن است تصورات بسیار متفاوتی از آنچه انصاف است داشته باشند. در نتیجه
هر گونه تلاش برای طراحی آن در نرم افزار مملو خواهد بود.
در برخورد با نتایج مغرضانه، تنظیم کننده ها عمدتاً از قوانین استاندارد ضد تبعیض عقب نشینی کرده اند. تا زمانی
که افرادی وجود داشته باشند که بتوانند مسئول تصمیمات مشکل ساز باشند، قابل اجرا است. اما با افزایش
روزافزون هوش مصنوعی، مسئولیت پذیری فردی تضعیف می شود. بدتر از آن، هوش مصنوعی مقیاس بالقوه
سوگیری را افزایش میدهد: هر نقصی میتواند میلیونها نفر را تحت تأثیر قرار دهد، شرکتها را در معرض دعوای
دستهجمعی با ابعاد تاریخی قرار دهد و شهرت آنها را به خطر بیاندازد.
مدیران اجرایی برای جلوگیری از چنین مشکلاتی چه کاری می توانند انجام دهند؟
به عنوان اولین قدم، قبل از هر تصمیمی، آنها باید با بررسی چهار عامل، درک خود را از مخاطرات عمیق تر کنند:
تاثیر نتایج
برخی از الگوریتم ها تصمیماتی را می گیرند یا بر آنها تأثیر می گذارند که پیامدهای مستقیم و مهمی بر زندگی
افراد دارند. آنها شرایط پزشکی را تشخیص می دهند، به عنوان مثال، نامزدهای شغلی را بررسی می کنند، وام
مسکن را تایید می کنند، یا احکام زندان را توصیه می کنند. در چنین شرایطی ممکن است عاقلانه باشد که از
استفاده از هوش مصنوعی اجتناب کنیم یا حداقل آن را تابع قضاوت انسان کنیم.
با این حال، رویکرد دوم هنوز نیاز به تأمل دقیق دارد. فرض کنید قاضی بر خلاف توصیه هوش مصنوعی به یک مجرم
اجازه آزادی زودهنگام داد و آن شخص مرتکب یک جنایت خشونتآمیز شد. قاضی تحت فشار قرار می گیرد تا
توضیح دهد که چرا او هوش مصنوعی را نادیده گرفته است. بنابراین استفاده از هوش مصنوعی میتواند
مسئولیتپذیری تصمیمگیرندگان انسانی را افزایش دهد، که ممکن است باعث شود افراد بیشتر از آنچه که باید
الگوریتمها را تغییر دهند.
این بدان معنا نیست که هوش مصنوعی در زمینههای پر تاثیر کاربرد خود را ندارد. سازمانهایی که به
تصمیمگیرندگان انسانی متکی هستند همچنان باید تعصبات ناخودآگاه را در میان آن افراد کنترل کنند، که هوش
مصنوعی میتواند به افشای آن کمک کند. آمازون در نهایت تصمیم گرفت از هوش مصنوعی به عنوان ابزاری برای
استخدام استفاده نکند، بلکه از آن برای شناسایی ایرادات در رویکرد استخدام فعلی خود استفاده کند . نکته
اصلی این است که عادلانه بودن الگوریتم ها نسبت به تصمیم گیری انسانی باید در هنگام انتخاب استفاده از
هوش مصنوعی در نظر گرفته شود.
ماهیت و دامنه تصمیمات.
تحقیقات نشان می دهد که میزان اعتماد به هوش مصنوعی با نوع تصمیماتی که برای آن استفاده می شود
متفاوت است. هنگامی که یک کار نسبتاً مکانیکی و محدود تلقی می شود – به بهینه سازی جدول زمانی یا تجزیه
و تحلیل تصاویر فکر کنید – نرم افزار حداقل به اندازه انسان قابل اعتماد در نظر گرفته می شود.
اما وقتی تصور میشود که تصمیمها ذهنی هستند یا متغیرها تغییر میکنند (مانند مجازاتهای قانونی، جایی که
شرایط تخفیفدهنده مجرمان ممکن است متفاوت باشد)، به قضاوت انسان بیشتر اعتماد میشود، تا حدی به
دلیل ظرفیت افراد برای همدلی. این نشان میدهد که شرکتها باید با دقت در مورد ماهیت و دامنه تصمیمهایی
که هوش مصنوعی را برای آن اعمال میکنند و اینکه چرا در آن موقعیتها به قضاوت انسان ترجیح داده میشود،
ارتباط برقرار کنند. این یک تمرین نسبتاً ساده در بسیاری از زمینه ها است، حتی در مواردی که عواقب جدی
دارد. به عنوان مثال، در تشخیص ماشینی اسکنهای پزشکی، افراد به راحتی میتوانند مزیتی را که نرمافزار
آموزشدیده بر روی میلیاردها نقطه داده کاملاً تعریفشده نسبت به انسانها دارد، بپذیرند که تنها چند هزار مورد را
میتوانند پردازش کنند.
لی سان
از سوی دیگر، استفاده از هوش مصنوعی برای تشخیص سلامت روان، که در آن عوامل ممکن است رفتاری، تعریف
سخت و خاص موردی باشند، احتمالاً نامناسب خواهد بود. برای مردم سخت است که بپذیرند ماشینها میتوانند
موقعیتهای بسیار متناوب را پردازش کنند. و حتی زمانی که متغیرهای حیاتی به طور دقیق شناسایی شده
باشند، نحوه تفاوت آنها در میان جمعیت ها اغلب به طور کامل درک نمی شود – که ما را به عامل بعدی می
رساند.
پیچیدگی عملیاتی و محدودیت در مقیاس.
یک الگوریتم ممکن است در همه جغرافیاها و بازارها منصفانه نباشد. برای مثال، ممکن است فردی که
مصرفکنندگان را برای تخفیف انتخاب میکند، در کل جمعیت ایالات متحده منصفانه به نظر برسد، اما اگر رفتار و
نگرش مصرفکننده در منهتن با میانگینهای ملی مطابقت نداشته باشد، همچنان در مورد ساکنان منهتن اعمال
شود. آموزش الگوریتم آمار متوسط می تواند تبعیض بین مناطق یا جمعیت های فرعی را بپوشاند و اجتناب از آن
ممکن است نیاز به الگوریتم های سفارشی برای هر زیر مجموعه داشته باشد. این توضیح می دهد که چرا هر
مقرراتی که با هدف کاهش تعصبات محلی یا گروه های کوچک انجام می شود، احتمالاً پتانسیل مزایای مقیاس
هوش مصنوعی را کاهش می دهد، که اغلب انگیزه استفاده از آن در وهله اول است.
تنظیم برای تغییرات بین بازارها، لایه هایی را به الگوریتم ها اضافه می کند و هزینه های توسعه را بالا می
برد. سفارشی کردن محصولات و خدمات برای بازارهای خاص نیز هزینه های تولید و نظارت را به میزان قابل توجهی
افزایش می دهد. همه آن متغیرها پیچیدگی و سربار سازمانی را افزایش می دهند. اگر هزینه ها خیلی زیاد شود،
شرکت ها حتی ممکن است برخی از بازارها را رها کنند. به عنوان مثال، به دلیل GDPR، توسعه دهندگان خاصی
مانند Gravity Interactive (سازنده بازیهای Ragnarok و Dragon Saga) تصمیم گرفتند که فروش محصولات خود
را برای مدتی در اتحادیه اروپا متوقف کنند. اگرچه اکثر آنها تاکنون راهی برای پیروی از مقررات پیدا کرده اند
(Dragon Saga در ماه می گذشته در اروپا راه اندازی شد)، هزینه های متحمل شده و فرصت های از دست رفته
مهم هستند.
انطباق و قابلیت های حاکمیتی.
برای پیروی از مقررات دقیقتر هوش مصنوعی (حداقل در اروپا و ایالات متحده)، شرکتها به فرآیندها و
ابزارهای جدیدی نیاز دارند : ممیزی سیستم، اسناد و پروتکلهای داده (برای ردیابی)، نظارت بر هوش مصنوعی، و
آموزش آگاهی از تنوع. . تعدادی از شرکتها در حال حاضر هر الگوریتم هوش مصنوعی جدید را در میان سهامداران
مختلف آزمایش میکنند تا ارزیابی کنند که آیا خروجی آن با ارزشهای شرکت همسو است و بعید است که
نگرانیهای نظارتی ایجاد کند.
گوگل، مایکروسافت، بیامو و دویچه تلکام همگی در حال توسعه سیاستهای رسمی هوش مصنوعی با تعهد به
ایمنی، انصاف، تنوع و حفظ حریم خصوصی هستند. برخی از شرکتها، مانند شرکت فدرال وام مسکن ( Freddie
Mac )، حتی مدیران ارشد اخلاق را برای نظارت بر معرفی و اجرای چنین سیاستهایی منصوب کردهاند و در
بسیاری از موارد از آنها با هیئتهای حاکمیت اخلاقی حمایت میکنند.
شفافیت خاص:
توضیح آنچه اشتباه شد
درست مانند قضاوت انسان، هوش مصنوعی خطاناپذیر نیست. الگوریتمها ناگزیر تصمیمهای ناعادلانه یا حتی
ناایمن خواهند گرفت.
وقتی افراد مرتکب اشتباه می شوند، معمولاً یک تحقیق و یک مسئولیت تعیین می شود که ممکن است مجازات
قانونی را برای تصمیم گیرنده اعمال کند. این به سازمان یا جامعه کمک می کند تا تصمیمات ناعادلانه را درک و
تصحیح کند و با ذینفعان خود اعتماد ایجاد کند. بنابراین آیا ما باید – و حتی می توانیم انتظار داشته باشیم – هوش
مصنوعی نیز تصمیمات خود را توضیح دهد؟
رگولاتورها قطعا در این مسیر حرکت می کنند. GDPR قبلاً «حق دریافت توضیح درباره تصمیم گرفته شده» را توسط
الگوریتمها توصیف میکند، و اتحادیه اروپا توضیحپذیری را به عنوان یک عامل کلیدی در افزایش اعتماد به هوش
مصنوعی در مقاله سفید و پیشنهاد مقررات AI شناسایی کرده است.
اما دریافت توضیح برای تصمیمات خودکار، که دانش ما از علت و معلول اغلب ناقص است، به چه معناست؟ این
ارسطو بود که اشاره کرد که در چنین شرایطی، توانایی توضیح دادن چگونگی رسیدن به نتایج میتواند کمتر از
توانایی بازتولید نتایج و تأیید تجربی صحت آنها باشد – کاری که شرکتها میتوانند با مقایسه پیشبینیهای
هوش مصنوعی با نتایج انجام دهند.
رهبران کسبوکارهایی که برنامههای هوش مصنوعی را در نظر میگیرند نیز باید روی دو عامل فکر کنند:
سطح توضیح مورد نیاز
با الگوریتم های هوش مصنوعی، توضیحات را می توان به طور کلی به دو گروه، متناسب با شرایط مختلف طبقه بندی کرد.
توضیحات کلی توضیحات کاملی برای تمام نتایج یک فرآیند داده شده است و قوانین یا فرمول هایی را که روابط بین
متغیرهای ورودی را مشخص می کند، توصیف می کند. آنها معمولاً زمانی مورد نیاز هستند که انصاف رویه مهم
است – به عنوان مثال، با تصمیم گیری در مورد تخصیص منابع، زیرا ذینفعان باید از قبل بدانند چگونه آنها ساخته
می شوند.
آیا ما باید – و حتی می توانیم انتظار داشته باشیم – هوش مصنوعی تصمیمات خود را توضیح دهد؟ رگولاتورها قطعا
در این مسیر حرکت می کنند.
ارائه یک توضیح کلی برای یک الگوریتم ممکن است ساده به نظر برسد: تنها کاری که باید انجام دهید این است
که فرمول آن را به اشتراک بگذارید. با این حال، اکثر مردم فاقد مهارتهای پیشرفته در ریاضیات یا علوم کامپیوتری
هستند که برای درک چنین فرمولی لازم است، چه رسد به تعیین مناسب بودن روابط مشخص شده در آن. و در
مورد یادگیری ماشین – جایی که نرم افزار هوش مصنوعی الگوریتم هایی را برای توصیف روابط ظاهری بین متغیرها
در داده های آموزشی ایجاد می کند – ممکن است نقص یا سوگیری در آن داده ها، نه الگوریتم، علت نهایی هر
مشکلی باشد.
علاوه بر این، شرکتها حتی ممکن است بینش مستقیمی نسبت به عملکرد الگوریتمهای خود نداشته باشند، و
پاسخ به محدودیتهای نظارتی برای توضیحات ممکن است از آنها بخواهد که فراتر از دادهها و بخشهای فناوری
اطلاعات و شاید به کارشناسان خارجی نگاه کنند. در نظر بگیرید که ارائهدهندگان بزرگ نرمافزار بهعنوان سرویس،
مانند Oracle، SAP و Salesforce، اغلب مؤلفههای هوش مصنوعی متعددی را از ارائهدهندگان شخص ثالث ترکیب
میکنند. و مشتریان آنها گاهی اوقات راه حل های مجهز به هوش مصنوعی را انتخاب می کنند و ترکیب می
کنند. اما تمام اجزای محصول نهایی و نحوه ترکیب و اتصال آنها باید قابل توضیح باشد.
توضیحات محلی منطق پشت یک خروجی خاص را ارائه می دهد – مثلاً چرا به یک متقاضی (یا دسته ای از
متقاضیان) وام رد شد در حالی که به دیگری وام اعطا شد. آنها اغلب توسط به اصطلاح الگوریتم های هوش
مصنوعی قابل توضیح ارائه می شوند که این ظرفیت را دارند که به گیرنده یک خروجی دلیل آن را بگویند. زمانی
می توان از آنها استفاده کرد که افراد فقط بدانند چرا تصمیم خاصی در مورد آنها گرفته شده است و به تصمیمات
مربوط به دیگران دسترسی ندارند یا نمی توانند. لی سان
توضیحات محلی میتواند به شکل عباراتی باشد که به این سوال پاسخ میدهد، ویژگیهای کلیدی مشتری که
اگر متفاوت بودند، خروجی یا تصمیم هوش مصنوعی را تغییر میدادند چیست؟ به عنوان مثال، اگر تنها تفاوت بین
دو متقاضی این است که یکی 24 ساله و دیگری 25 ساله است، توضیح آن این است که به اولین متقاضی اگر
بیش از 24 سال سن داشت وام داده می شد. مشکل اینجاست که ویژگی های شناسایی شده ممکن است
خود سوگیری ها را پنهان کنند. به عنوان مثال، ممکن است مشخص شود که کد پستی متقاضی چیزی است که
تفاوت را ایجاد می کند، در غیر این صورت متقاضیان قوی از محله های سیاه پوست جریمه می شوند.
مبادلات درگیر
قوی ترین الگوریتم ها ذاتاً مات هستند. به گروه مورچه های علی بابا در چین نگاه کنید که واحد MYbank آن از
هوش مصنوعی برای تایید وام های کسب و کار کوچک در کمتر از سه دقیقه بدون دخالت انسان استفاده می
کند. برای انجام این کار، دادهها را از سراسر اکوسیستم علیبابا، از جمله اطلاعات مربوط به فروش از پلتفرمهای
تجارت الکترونیک خود، با یادگیری ماشینی برای پیشبینی ریسکهای پیشفرض و حفظ رتبهبندی اعتباری بلادرنگ
ترکیب میکند.
از آنجایی که نرم افزار Ant از بیش از 3000 ورودی داده استفاده می کند، بیان واضح چگونگی رسیدن به ارزیابی
های خاص (چه رسد به ارائه توضیح کلی) عملاً غیرممکن است. بسیاری از برنامه های کاربردی هیجان انگیز
هوش مصنوعی به ورودی های الگوریتمی در مقیاس مشابه نیاز دارند. شرایط پرداخت متناسب در بازارهای B2B،
بیمه نامه و خودروهای خودران تنها برخی از زمینه هایی هستند که الزامات توضیحی دقیق هوش مصنوعی ممکن
است توانایی شرکت ها برای نوآوری یا رشد را مختل کند.
شرکتها با ارائه خدماتی مانند Ant’s در بازارهایی که مصرفکنندگان و تنظیمکنندهها برای حقوق فردی ارزش
زیادی قائل هستند – به ویژه اتحادیه اروپا و ایالات متحده، با چالشهایی مواجه خواهند شد. برای استقرار چنین
هوش مصنوعی، شرکتها باید بتوانند توضیح دهند که چگونه یک الگوریتم شباهتهای بین مشتریان را تعریف
میکند، چرا تفاوتهای خاص بین دو مشتری احتمالی ممکن است رفتارهای متفاوت را توجیه کند، و چرا مشتریان
مشابه ممکن است توضیحات متفاوتی در مورد هوش مصنوعی دریافت کنند.
انتظارات برای توضیحات نیز بر اساس جغرافیا متفاوت است، که چالش هایی را برای اپراتورهای جهانی ایجاد می
کند. آنها به سادگی میتوانند سختگیرانهترین الزامات توضیحپذیری را در سرتاسر جهان بپذیرند، اما انجام این کار
به وضوح میتواند آنها را برای بازیگران محلی در برخی از بازارها در مضیقه قرار دهد. بانکهایی که از قوانین
اتحادیه اروپا پیروی میکنند برای تولید الگوریتمهایی به دقت الگوریتمهای Ant در پیشبینی احتمال نکول وامگیرنده
تلاش میکنند و در نتیجه ممکن است در مورد الزامات اعتباری دقیقتر عمل کنند. از سوی دیگر، بهکارگیری
استانداردهای توضیحپذیری چندگانه به احتمال زیاد پیچیدهتر و پرهزینهتر خواهد بود، زیرا یک شرکت در اصل
الگوریتمهای مختلفی را برای بازارهای مختلف ایجاد میکند و احتمالاً باید هوش مصنوعی بیشتری برای اطمینان
از قابلیت همکاری اضافه کند.
با این حال، برخی فرصت ها وجود دارد. الزامات توضیحپذیری میتواند منبع تمایز باشد: شرکتهایی که میتوانند الگوریتمهای هوش مصنوعی با قابلیتهای توضیحی قویتر توسعه دهند، در موقعیت بهتری برای جلب اعتماد مصرفکنندگان و تنظیمکنندهها خواهند بود. این می تواند پیامدهای استراتژیک داشته باشد. به عنوان مثال، اگر سیتی بانک بتواند هوش مصنوعی قابل توضیحی را برای اعتبارات کسب و کارهای کوچک تولید کند که به اندازه مورچه قدرتمند است، مطمئناً بر بازارهای اتحادیه اروپا و ایالات متحده تسلط خواهد داشت و حتی ممکن است در زمین خود مورچه جای پایی به دست آورد. توانایی برقراری ارتباط عادلانه و شفافیت تصمیمات پیشنهادات نیز یک تمایز بالقوه برای شرکت های فناوری است. IBM محصولی را توسعه داده است که به شرکتها در انجام این کار کمک میکند: Watson OpenScale ، یک پلتفرم تجزیه و تحلیل داده مبتنی بر هوش مصنوعی برای تجارت.
نکته پایانی این است که اگرچه نیاز به هوش مصنوعی برای ارائه توضیحات برای تصمیماتش ممکن است راه خوبی برای بهبود عادلانه بودن و افزایش اعتماد سهامداران به نظر برسد، اما بهای سنگینی دارد – قیمتی که ممکن است همیشه ارزش پرداخت را نداشته باشد. در این صورت تنها انتخاب این است که یا به ایجاد تعادل بین خطرات ناشی از برخی نتایج ناعادلانه و بازده حاصل از خروجی دقیق تر برگردیم، یا اینکه استفاده از هوش مصنوعی را کنار بگذاریم.
یادگیری و تکامل
یک زمین در حال تغییر
یکی از ویژگی های متمایز هوش مصنوعی توانایی آن در یادگیری است. هر چه یک الگوریتم تشخیص تصویر با
برچسبگذاری بیشتری از گاوها و گورخرها تغذیه شود، احتمال تشخیص گاو یا گورخر بیشتر است. اما اشکالاتی
در یادگیری مداوم وجود دارد : اگرچه دقت میتواند در طول زمان بهبود یابد، همان ورودیهایی که دیروز یک نتیجه
را ایجاد کردند، فردا میتوانند نتیجه متفاوتی را ثبت کنند، زیرا الگوریتم با دادههایی که در آن زمان دریافت کرده
تغییر کرده است.
رهبران کسب و کار در کشف چگونگی مدیریت الگوریتمهایی که تکامل مییابند – و اینکه آیا در وهله اول اجازه
یادگیری مداوم را میدهند یا خیر – باید روی سه عامل تمرکز کنند:
ریسک ها و پاداش ها.
نگرش مشتری نسبت به هوش مصنوعی در حال تکامل احتمالاً توسط یک محاسبه ریسک بازده شخصی تعیین
می شود. برای مثال، در قیمتگذاری بیمه، الگوریتمهای یادگیری به احتمال زیاد نتایجی را ارائه میدهند که بهتر
از هر چیزی که انسان میتواند ارائه دهد، مطابق با نیازهای مشتری است، بنابراین مشتریان احتمالاً تحمل نسبتاً
بالایی برای آن نوع هوش مصنوعی خواهند داشت. در زمینه های دیگر، یادگیری ممکن است اصلاً نگران کننده
نباشد. به عنوان مثال، هوش مصنوعی که توصیههای فیلم یا کتاب را تولید میکند، میتواند با ورود اطلاعات
بیشتر در مورد خریدها و انتخابهای تماشای مشتری، با خیال راحت تکامل یابد.
اما وقتی خطر و تأثیر یک نتیجه ناعادلانه یا منفی زیاد است، مردم کمتر هوش مصنوعی در حال تکامل را
میپذیرند. اگر بدون هیچ نظارتی تغییر داده شوند، انواع خاصی از محصولات، مانند دستگاه های پزشکی، می
توانند برای کاربران خود مضر باشند. به همین دلیل است که برخی از تنظیمکنندهها، به ویژه سازمان غذا و داروی
ایالات متحده، استفاده از الگوریتمهای «قفلشده» را مجاز کردهاند – که در هر بار استفاده از محصول یاد نمیگیرند
و بنابراین تغییر نمیکنند – در آنها. برای چنین پیشنهادهایی، یک شرکت میتواند دو نسخه موازی از یک الگوریتم
را اجرا کند: یکی فقط در تحقیق و توسعه استفاده میشود که به طور مداوم یاد میگیرد و یک نسخه قفل شده
برای استفاده تجاری که توسط تنظیمکنندهها تایید شده است. نسخه تجاری را می توان در فرکانس معینی با
نسخه جدید بر اساس نسخه ای که به طور مداوم در حال بهبود است – پس از تایید مقررات جایگزین کرد.
قانونگذاران همچنین نگران هستند که یادگیری مداوم میتواند باعث شود الگوریتمها به روشهای جدید و به
سختی قابل تشخیص باشند، متمایز شوند یا ناامن شوند. در محصولات و خدماتی که بیعدالتی یک نگرانی عمده
است، میتوانید انتظار نورپردازی روشنتری در مورد تکامل نیز داشته باشید.
پیچیدگی و هزینه.
استقرار هوش مصنوعی یادگیری می تواند هزینه های عملیاتی را افزایش دهد. اولاً، شرکتها ممکن است
الگوریتمهای متعددی را در مناطق، بازارها یا زمینههای مختلف اجرا کنند که هر کدام به دادهها و محیطهای محلی
پاسخ دادهاند. سازمان ها ممکن است نیاز به ایجاد نقش ها و فرآیندهای نگهبان جدید داشته باشند تا مطمئن
شوند که همه این الگوریتم ها به درستی و در محدوده ریسک مجاز عمل می کنند. افسران ارشد ریسک ممکن
است مجبور شوند وظایف خود را گسترش دهند تا شامل نظارت بر فرآیندهای هوش مصنوعی مستقل و ارزیابی
سطح ریسک قانونی، مالی، شهرت و فیزیکی باشد که شرکت مایل به پذیرش هوش مصنوعی تکامل پذیر است.
شرکت ها همچنین باید تمرکززدایی را در مقابل شیوه های استاندارد شده ای که نرخ یادگیری هوش مصنوعی را
افزایش می دهد، متعادل کنند. آیا آنها می توانند یک ستون فقرات جهانی برای راه حل های دیجیتال و هوش
مصنوعی شرکت بسازند و حفظ کنند؟ سیستم های خودشان چقدر برای ذخیره سازی و پردازش غیرمتمرکز آماده
هستند؟
آنها چقدر برای پاسخ به تهدیدات امنیت سایبری آماده هستند؟ آیا تولید باید به مشتریان نهایی نزدیکتر شود یا
این که عملیات را در معرض خطرات جدیدی قرار می دهد؟ آیا شرکت ها می توانند استعدادهای باهوش هوش
مصنوعی کافی را در موقعیت های رهبری مناسب در بازارهای محلی جذب کنند؟ به همه این سوالات باید با تفکر
پاسخ داد.
ورودی انسان
داده های جدید یا تغییرات محیطی نیز می تواند باعث شود افراد تصمیمات خود را تنظیم کنند یا حتی مدل های
ذهنی خود را تغییر دهند. به عنوان مثال، یک مدیر استخدام ممکن است در دو زمان مختلف تصمیمات متفاوتی در
مورد یک متقاضی شغلی مشابه بگیرد، اگر کیفیت نامزدهای رقیب تغییر کند – یا حتی به این دلیل که بار دوم
خسته شده است. از آنجایی که هیچ مقرراتی برای جلوگیری از این اتفاق وجود ندارد، میتوان موردی را مطرح کرد
که امکان تکامل هوش مصنوعی در نتیجه دادههای جدید مجاز است. با این حال، برای جلب نظر مردم به این
دیدگاه، قانع کننده ای لازم است.
قانونگذاران نگران هستند که یادگیری مستمر باعث شود الگوریتمها به روشهای جدید و غیرقابل تشخیص متمایز
شوند یا ناامن شوند.
آنچه مردم ممکن است راحت تر بپذیرند این است که هوش مصنوعی به روشی هوشمندانه با تصمیم گیری
انسانی تکمیل می شود. همانطور که در مقاله HBR 2020 « روشی بهتر برای هوش مصنوعی داخلی » (تألیف
تئودوروس اوگنیو) توضیح داده شد، سیستمهای هوش مصنوعی میتوانند بهعنوان «مربی» به کار گرفته شوند –
بازخورد و ورودی را به کارمندان (به عنوان مثال، معاملهگران اوراق بهادار مالی در یک مدیریت دارایی ارائه میکنند).
محکم). اما این یک خیابان یک طرفه نیست: بیشتر ارزش همکاری ناشی از بازخوردهایی است که انسان ها به
الگوریتم ها می دهند. فیسبوک، در واقع، رویکرد جالبی را برای نظارت و تسریع یادگیری هوش مصنوعی با پلتفرم
Dynabench خود در پیش گرفته است . متخصصان انسانی را موظف میکند که به دنبال راههایی برای فریب هوش
مصنوعی برای تولید یک نتیجه نادرست یا ناعادلانه با استفاده از چیزی به نام جمعآوری دادههای متخاصم پویا
باشند.
هنگامی که انسان ها به طور فعال هوش مصنوعی را تقویت می کنند، می توانند نسبتاً سریع قفل ارزش را باز
کنند. در گفتگوی اخیر TED، سیلوین دورانتون از BCG توضیح داد که چگونه یک خرده فروش لباس تنها در یک سال
بیش از 100 میلیون دلار صرفه جویی کرد و به خریداران اجازه داد تا تخصص خود را در هوش مصنوعی که روند لباس
را پیش بینی می کند، وارد کنند.
. . .
با توجه به اینکه اتکای فزاینده به هوش مصنوعی – به ویژه یادگیری ماشینی – به طور قابل توجهی خطرات
استراتژیک پیش روی مشاغل را افزایش می دهد، شرکت ها باید نقش فعالی در نوشتن کتاب قوانین الگوریتم ها
داشته باشند. همانطور که تجزیه و تحلیل ها برای تصمیم گیری هایی مانند تاییدیه وام یا ارزیابی تکرار جرم اعمال
می شود، محفوظات در مورد سوگیری های پنهان همچنان افزایش می یابد. کدورت ذاتی برنامه نویسی پیچیده
زیربنای یادگیری ماشین نیز باعث ناراحتی می شود و نگرانی در مورد اینکه آیا ابزارهای مجهز به هوش مصنوعی
توسعه یافته برای یک جمعیت می توانند با خیال راحت در مورد سایر جمعیت ها تصمیم بگیرند، افزایش می
یابد. مگر اینکه همه شرکتها – از جمله شرکتهایی که مستقیماً در توسعه هوش مصنوعی دخالت ندارند – زودتر
با این چالشها درگیر شوند، خطر کاهش اعتماد به محصولات مبتنی بر هوش مصنوعی و ایجاد مقررات
محدودکننده غیرضروری را دارند که نه تنها سود کسبوکار بلکه ارزش بالقوهای را که هوش مصنوعی میتواند به
مصرفکنندگان ارائه دهد تضعیف کند. و جامعه …..