• توییت
  • پست
  • اشتراک گذاری
  • صرفه جویی
  • خرید کپی

در بیشتر دهه گذشته ، نگرانی های عمومی در مورد فناوری دیجیتال بر سوء استفاده بالقوه از داده های شخصی متمرکز شده است. مردم از روشی که شرکت‌ها می‌توانند تحرکات خود را به صورت آنلاین ردیابی کنند، معمولاً شماره کارت اعتباری، آدرس و سایر اطلاعات مهم را جمع‌آوری می‌کنند، ناراحت بودند. آن‌ها دریافتند که دنبال کردن آن‌ها در سراسر وب توسط تبلیغاتی که به وضوح توسط جستجوهای بیهوده آنها ایجاد شده بود، وحشتناک بود و نگران سرقت هویت و کلاهبرداری بودند.

 

این نگرانی‌ها منجر به تصویب تدابیری در ایالات متحده و اروپا شد که به کاربران اینترنت تا حدی کنترل بر داده‌ها و

تصاویر شخصی آنها را تضمین می‌کرد – به ویژه، مقررات عمومی حفاظت از داده‌های اتحادیه اروپا در سال 2018

(GDPR). البته، این اقدامات به بحث در مورد استفاده شرکت ها از داده های شخصی پایان نداد. برخی استدلال

می کنند که مهار آن عملکرد اقتصادی اروپا و ایالات متحده را نسبت به کشورهایی که محدودیت کمتری دارند، به

ویژه چین، که غول های دیجیتالی آن با کمک دسترسی آماده و با نظارت آسان به اطلاعات شخصی از همه نوع،

پیشرفت کرده اند، مختل خواهد کرد. (اما اخیراً دولت چین شروع به محدود کردن آزادی شرکت‌های دیجیتال کرده

است – همانطور که جریمه‌های سنگین تحمیل شده بر علی بابا نشان می‌دهد). رقبای آمریکایی با جیب عمیق تر

مانند گوگل و آمازون.

اما بحث وارد مرحله جدیدی می شود. از آنجایی که شرکت‌ها به طور فزاینده‌ای هوش مصنوعی را در محصولات،

خدمات، فرآیندها و تصمیم‌گیری‌های خود تعبیه می‌کنند، توجه به نحوه استفاده از داده‌ها توسط نرم‌افزار معطوف

می‌شود – به‌ویژه توسط الگوریتم‌های پیچیده و در حال تکاملی که ممکن است سرطان را تشخیص دهد، رانندگی

کند یا یک بیماری را تأیید کند. وام. اتحادیه اروپا که مجدداً پیشرو است (در مقاله سفید 2020 خود “در مورد هوش

مصنوعی – رویکرد اروپایی به تعالی و اعتماد” و پیشنهاد 2021 خود برای چارچوب قانونی هوش مصنوعی)، مقررات

را برای توسعه ابزارهای هوش مصنوعی ضروری می داند. که مصرف کنندگان بتوانند به آن اعتماد کنند.

همه اینها چه معنایی برای شرکت ها خواهد داشت؟ ما در حال تحقیق در مورد چگونگی تنظیم الگوریتم‌های

هوش مصنوعی و نحوه پیاده‌سازی سیستم‌های هوش مصنوعی بوده‌ایم که بر اساس اصول کلیدی زیربنای

چارچوب‌های نظارتی پیشنهادی هستند، و به شرکت‌ها در سراسر صنایع کمک کرده‌ایم تا ابتکارات مبتنی بر هوش

مصنوعی را راه‌اندازی و مقیاس‌بندی کنند. در صفحات بعدی از این کار و سایر محققان استفاده می‌کنیم تا سه

چالش اصلی که رهبران کسب‌وکار با آن روبرو هستند را بررسی کنیم، زیرا هوش مصنوعی را در تصمیم‌گیری و

فرآیندهای خود ادغام می‌کنند و در عین حال تلاش می‌کنند از ایمن و قابل اعتماد بودن آن برای مشتریان اطمینان

حاصل کنند. ما همچنین چارچوبی را برای هدایت مدیران اجرایی از طریق آن وظایف ارائه می دهیم که تا حدی از

مفاهیم اعمال شده در مدیریت ریسک های استراتژیک استفاده می کند.

نتایج ناعادلانه: خطرات استفاده از هوش مصنوعی

سیستم‌های هوش مصنوعی که نتایج مغرضانه تولید می‌کنند، سرفصل خبرها بوده‌اند. یکی از نمونه های شناخته

شده الگوریتم کارت اعتباری اپل است که به تبعیض علیه زنان متهم شده است و تحقیقاتی را توسط دپارتمان

خدمات مالی نیویورک آغاز کرده است.

اما این مشکل در بسیاری از چهره‌های دیگر ظاهر می‌شود: به عنوان مثال، در الگوریتم‌های تبلیغات آنلاین فراگیر،

که ممکن است بینندگان را بر اساس نژاد، مذهب یا جنسیت هدف قرار دهند، و در غربالگری رزومه خودکار آمازون،

که نامزدهای زن را فیلتر می‌کند. مطالعه اخیر منتشر شده در Science نشان داد که ابزارهای پیش‌بینی خطر مورد

استفاده در مراقبت‌های بهداشتی، که هر ساله میلیون‌ها نفر را در ایالات متحده تحت تأثیر قرار می‌دهند، سوگیری

نژادی قابل توجهی را نشان می‌دهند. مطالعه دیگری که در مجله پزشکی داخلی عمومی منتشر شد، نشان داد

که نرم‌افزاری که توسط بیمارستان‌های پیشرو برای اولویت‌بندی گیرندگان پیوند کلیه استفاده می‌شود، علیه

بیماران سیاه‌پوست تبعیض قائل می‌شود.

هوش مصنوعی مقیاس بالقوه سوگیری را افزایش می‌دهد: هر نقصی می‌تواند میلیون‌ها نفر را تحت تأثیر قرار دهد

و شرکت‌ها را در معرض شکایت‌های دسته جمعی قرار دهد.

در بیشتر موارد مشکل از داده های مورد استفاده برای آموزش هوش مصنوعی ناشی می شود. اگر آن داده ها

بایاس باشد، هوش مصنوعی به دست می آورد و حتی ممکن است بایاس را تقویت کند. به عنوان مثال، زمانی که

مایکروسافت از توییت‌ها برای آموزش یک ربات چت برای تعامل با کاربران توییتر استفاده می‌کرد، مجبور شد ربات را

یک روز پس از پخش زنده به دلیل پیام‌های تحریک‌آمیز و نژادپرستانه حذف کند. اما صرفاً حذف اطلاعات جمعیت

شناختی مانند نژاد یا جنسیت از داده های آموزشی کافی نیست، زیرا در برخی شرایط برای تصحیح سوگیری ها

به این داده ها نیاز است.

در تئوری، ممکن است بتوان برخی از مفاهیم انصاف را در نرم افزار کدگذاری کرد، که مستلزم آن است که همه

نتایج دارای شرایط خاصی باشند. آمازون در حال آزمایش یک معیار انصاف به نام نابرابری جمعیتی مشروط است و

سایر شرکت‌ها در حال توسعه معیارهای مشابه هستند. اما یک مانع این است که هیچ تعریف توافق شده ای از

انصاف وجود ندارد، و همچنین نمی توان در مورد شرایط کلی که نتایج عادلانه را تعیین می کند، قاطعانه بود. علاوه

بر این، ذینفعان در هر موقعیتی ممکن است تصورات بسیار متفاوتی از آنچه انصاف است داشته باشند. در نتیجه

هر گونه تلاش برای طراحی آن در نرم افزار مملو خواهد بود.

در برخورد با نتایج مغرضانه، تنظیم کننده ها عمدتاً از قوانین استاندارد ضد تبعیض عقب نشینی کرده اند. تا زمانی

که افرادی وجود داشته باشند که بتوانند مسئول تصمیمات مشکل ساز باشند، قابل اجرا است. اما با افزایش

روزافزون هوش مصنوعی، مسئولیت پذیری فردی تضعیف می شود. بدتر از آن، هوش مصنوعی مقیاس بالقوه

سوگیری را افزایش می‌دهد: هر نقصی می‌تواند میلیون‌ها نفر را تحت تأثیر قرار دهد، شرکت‌ها را در معرض دعوای

دسته‌جمعی با ابعاد تاریخی قرار دهد و شهرت آنها را به خطر بیاندازد.

مدیران اجرایی برای جلوگیری از چنین مشکلاتی چه کاری می توانند انجام دهند؟

به عنوان اولین قدم، قبل از هر تصمیمی، آنها باید با بررسی چهار عامل، درک خود را از مخاطرات عمیق تر کنند:

تاثیر نتایج

 

برخی از الگوریتم ها تصمیماتی را می گیرند یا بر آنها تأثیر می گذارند که پیامدهای مستقیم و مهمی بر زندگی

افراد دارند. آنها شرایط پزشکی را تشخیص می دهند، به عنوان مثال، نامزدهای شغلی را بررسی می کنند، وام

مسکن را تایید می کنند، یا احکام زندان را توصیه می کنند. در چنین شرایطی ممکن است عاقلانه باشد که از

استفاده از هوش مصنوعی اجتناب کنیم یا حداقل آن را تابع قضاوت انسان کنیم.

با این حال، رویکرد دوم هنوز نیاز به تأمل دقیق دارد. فرض کنید قاضی بر خلاف توصیه هوش مصنوعی به یک مجرم

اجازه آزادی زودهنگام داد و آن شخص مرتکب یک جنایت خشونت‌آمیز شد. قاضی تحت فشار قرار می گیرد تا

توضیح دهد که چرا او هوش مصنوعی را نادیده گرفته است. بنابراین استفاده از هوش مصنوعی می‌تواند

مسئولیت‌پذیری تصمیم‌گیرندگان انسانی را افزایش دهد، که ممکن است باعث شود افراد بیشتر از آنچه که باید

الگوریتم‌ها را تغییر دهند.

این بدان معنا نیست که هوش مصنوعی در زمینه‌های پر تاثیر کاربرد خود را ندارد. سازمان‌هایی که به

تصمیم‌گیرندگان انسانی متکی هستند همچنان باید تعصبات ناخودآگاه را در میان آن افراد کنترل کنند، که هوش

مصنوعی می‌تواند به افشای آن کمک کند. آمازون در نهایت تصمیم گرفت از هوش مصنوعی به عنوان ابزاری برای

استخدام استفاده نکند، بلکه از آن برای شناسایی ایرادات در رویکرد استخدام فعلی خود استفاده کند . نکته

اصلی این است که عادلانه بودن الگوریتم ها نسبت به تصمیم گیری انسانی باید در هنگام انتخاب استفاده از

هوش مصنوعی در نظر گرفته شود.

ماهیت و دامنه تصمیمات.

تحقیقات نشان می دهد که میزان اعتماد به هوش مصنوعی با نوع تصمیماتی که برای آن استفاده می شود

متفاوت است. هنگامی که یک کار نسبتاً مکانیکی و محدود تلقی می شود – به بهینه سازی جدول زمانی یا تجزیه

و تحلیل تصاویر فکر کنید – نرم افزار حداقل به اندازه انسان قابل اعتماد در نظر گرفته می شود.

اما وقتی تصور می‌شود که تصمیم‌ها ذهنی هستند یا متغیرها تغییر می‌کنند (مانند مجازات‌های قانونی، جایی که

شرایط تخفیف‌دهنده مجرمان ممکن است متفاوت باشد)، به قضاوت انسان بیشتر اعتماد می‌شود، تا حدی به

دلیل ظرفیت افراد برای همدلی. این نشان می‌دهد که شرکت‌ها باید با دقت در مورد ماهیت و دامنه تصمیم‌هایی

که هوش مصنوعی را برای آن اعمال می‌کنند و اینکه چرا در آن موقعیت‌ها به قضاوت انسان ترجیح داده می‌شود،

ارتباط برقرار کنند. این یک تمرین نسبتاً ساده در بسیاری از زمینه ها است، حتی در مواردی که عواقب جدی

دارد. به عنوان مثال، در تشخیص ماشینی اسکن‌های پزشکی، افراد به راحتی می‌توانند مزیتی را که نرم‌افزار

آموزش‌دیده بر روی میلیاردها نقطه داده کاملاً تعریف‌شده نسبت به انسان‌ها دارد، بپذیرند که تنها چند هزار مورد را

می‌توانند پردازش کنند.

لی سان «موجودات» را در عکس‌هایش مظهر تضاد بین حس آزادی که در دوران کودکی در حومه شهر احساس

می‌کرد و دوربین‌های نظارتی که او را در گوشه و کنار شهرهای مدرن تماشا می‌کند، می‌بیند. لی سان

از سوی دیگر، استفاده از هوش مصنوعی برای تشخیص سلامت روان، که در آن عوامل ممکن است رفتاری، تعریف

سخت و خاص موردی باشند، احتمالاً نامناسب خواهد بود. برای مردم سخت است که بپذیرند ماشین‌ها می‌توانند

موقعیت‌های بسیار متناوب را پردازش کنند. و حتی زمانی که متغیرهای حیاتی به طور دقیق شناسایی شده

باشند، نحوه تفاوت آنها در میان جمعیت ها اغلب به طور کامل درک نمی شود – که ما را به عامل بعدی می

رساند.

پیچیدگی عملیاتی و محدودیت در مقیاس.

یک الگوریتم ممکن است در همه جغرافیاها و بازارها منصفانه نباشد. برای مثال، ممکن است فردی که

مصرف‌کنندگان را برای تخفیف انتخاب می‌کند، در کل جمعیت ایالات متحده منصفانه به نظر برسد، اما اگر رفتار و

نگرش مصرف‌کننده در منهتن با میانگین‌های ملی مطابقت نداشته باشد، همچنان در مورد ساکنان منهتن اعمال

شود. آموزش الگوریتم آمار متوسط ​​می تواند تبعیض بین مناطق یا جمعیت های فرعی را بپوشاند و اجتناب از آن

ممکن است نیاز به الگوریتم های سفارشی برای هر زیر مجموعه داشته باشد. این توضیح می دهد که چرا هر

مقرراتی که با هدف کاهش تعصبات محلی یا گروه های کوچک انجام می شود، احتمالاً پتانسیل مزایای مقیاس

هوش مصنوعی را کاهش می دهد، که اغلب انگیزه استفاده از آن در وهله اول است.

تنظیم برای تغییرات بین بازارها، لایه هایی را به الگوریتم ها اضافه می کند و هزینه های توسعه را بالا می

برد. سفارشی کردن محصولات و خدمات برای بازارهای خاص نیز هزینه های تولید و نظارت را به میزان قابل توجهی

افزایش می دهد. همه آن متغیرها پیچیدگی و سربار سازمانی را افزایش می دهند. اگر هزینه ها خیلی زیاد شود،

شرکت ها حتی ممکن است برخی از بازارها را رها کنند. به عنوان مثال، به دلیل GDPR، توسعه دهندگان خاصی

مانند Gravity Interactive (سازنده بازی‌های Ragnarok و Dragon Saga) تصمیم گرفتند که فروش محصولات خود

را برای مدتی در اتحادیه اروپا متوقف کنند. اگرچه اکثر آنها تاکنون راهی برای پیروی از مقررات پیدا کرده اند

(Dragon Saga در ماه می گذشته در اروپا راه اندازی شد)، هزینه های متحمل شده و فرصت های از دست رفته

مهم هستند.

انطباق و قابلیت های حاکمیتی.

برای پیروی از مقررات دقیق‌تر هوش مصنوعی (حداقل در اروپا و ایالات متحده)، شرکت‌ها به فرآیندها و

ابزارهای جدیدی نیاز دارند : ممیزی سیستم، اسناد و پروتکل‌های داده (برای ردیابی)، نظارت بر هوش مصنوعی، و

آموزش آگاهی از تنوع. . تعدادی از شرکت‌ها در حال حاضر هر الگوریتم هوش مصنوعی جدید را در میان سهامداران

مختلف آزمایش می‌کنند تا ارزیابی کنند که آیا خروجی آن با ارزش‌های شرکت همسو است و بعید است که

نگرانی‌های نظارتی ایجاد کند.

گوگل، مایکروسافت، بی‌ام‌و و دویچه تلکام همگی در حال توسعه سیاست‌های رسمی هوش مصنوعی با تعهد به

ایمنی، انصاف، تنوع و حفظ حریم خصوصی هستند. برخی از شرکت‌ها، مانند شرکت فدرال وام مسکن ( Freddie

Mac )، حتی مدیران ارشد اخلاق را برای نظارت بر معرفی و اجرای چنین سیاست‌هایی منصوب کرده‌اند و در

بسیاری از موارد از آنها با هیئت‌های حاکمیت اخلاقی حمایت می‌کنند.

شفافیت خاص:

توضیح آنچه اشتباه شد

درست مانند قضاوت انسان، هوش مصنوعی خطاناپذیر نیست. الگوریتم‌ها ناگزیر تصمیم‌های ناعادلانه یا حتی

ناایمن خواهند گرفت.

وقتی افراد مرتکب اشتباه می شوند، معمولاً یک تحقیق و یک مسئولیت تعیین می شود که ممکن است مجازات

قانونی را برای تصمیم گیرنده اعمال کند. این به سازمان یا جامعه کمک می کند تا تصمیمات ناعادلانه را درک و

تصحیح کند و با ذینفعان خود اعتماد ایجاد کند. بنابراین آیا ما باید – و حتی می توانیم انتظار داشته باشیم – هوش

مصنوعی نیز تصمیمات خود را توضیح دهد؟

رگولاتورها قطعا در این مسیر حرکت می کنند. GDPR قبلاً «حق دریافت توضیح درباره تصمیم گرفته شده» را توسط

الگوریتم‌ها توصیف می‌کند، و اتحادیه اروپا توضیح‌پذیری را به عنوان یک عامل کلیدی در افزایش اعتماد به هوش

مصنوعی در مقاله سفید و پیشنهاد مقررات AI شناسایی کرده است.

اما دریافت توضیح برای تصمیمات خودکار، که دانش ما از علت و معلول اغلب ناقص است، به چه معناست؟ این

ارسطو بود که اشاره کرد که در چنین شرایطی، توانایی توضیح دادن چگونگی رسیدن به نتایج می‌تواند کمتر از

توانایی بازتولید نتایج و تأیید تجربی صحت آنها باشد – کاری که شرکت‌ها می‌توانند با مقایسه پیش‌بینی‌های

هوش مصنوعی با نتایج انجام دهند.

رهبران کسب‌وکارهایی که برنامه‌های هوش مصنوعی را در نظر می‌گیرند نیز باید روی دو عامل فکر کنند:

سطح توضیح مورد نیاز

با الگوریتم های هوش مصنوعی، توضیحات را می توان به طور کلی به دو گروه، متناسب با شرایط مختلف طبقه بندی کرد.

توضیحات کلی توضیحات کاملی برای تمام نتایج یک فرآیند داده شده است و قوانین یا فرمول هایی را که روابط بین

متغیرهای ورودی را مشخص می کند، توصیف می کند. آنها معمولاً زمانی مورد نیاز هستند که انصاف رویه مهم

است – به عنوان مثال، با تصمیم گیری در مورد تخصیص منابع، زیرا ذینفعان باید از قبل بدانند چگونه آنها ساخته

می شوند.

آیا ما باید – و حتی می توانیم انتظار داشته باشیم – هوش مصنوعی تصمیمات خود را توضیح دهد؟ رگولاتورها قطعا

در این مسیر حرکت می کنند.

ارائه یک توضیح کلی برای یک الگوریتم ممکن است ساده به نظر برسد: تنها کاری که باید انجام دهید این است

که فرمول آن را به اشتراک بگذارید. با این حال، اکثر مردم فاقد مهارت‌های پیشرفته در ریاضیات یا علوم کامپیوتری

هستند که برای درک چنین فرمولی لازم است، چه رسد به تعیین مناسب بودن روابط مشخص شده در آن. و در

مورد یادگیری ماشین – جایی که نرم افزار هوش مصنوعی الگوریتم هایی را برای توصیف روابط ظاهری بین متغیرها

در داده های آموزشی ایجاد می کند – ممکن است نقص یا سوگیری در آن داده ها، نه الگوریتم، علت نهایی هر

مشکلی باشد.

علاوه بر این، شرکت‌ها حتی ممکن است بینش مستقیمی نسبت به عملکرد الگوریتم‌های خود نداشته باشند، و

پاسخ به محدودیت‌های نظارتی برای توضیحات ممکن است از آن‌ها بخواهد که فراتر از داده‌ها و بخش‌های فناوری

اطلاعات و شاید به کارشناسان خارجی نگاه کنند. در نظر بگیرید که ارائه‌دهندگان بزرگ نرم‌افزار به‌عنوان سرویس،

مانند Oracle، SAP و Salesforce، اغلب مؤلفه‌های هوش مصنوعی متعددی را از ارائه‌دهندگان شخص ثالث ترکیب

می‌کنند. و مشتریان آنها گاهی اوقات راه حل های مجهز به هوش مصنوعی را انتخاب می کنند و ترکیب می

کنند. اما تمام اجزای محصول نهایی و نحوه ترکیب و اتصال آنها باید قابل توضیح باشد.

توضیحات محلی منطق پشت یک خروجی خاص را ارائه می دهد – مثلاً چرا به یک متقاضی (یا دسته ای از

متقاضیان) وام رد شد در حالی که به دیگری وام اعطا شد. آنها اغلب توسط به اصطلاح الگوریتم های هوش

مصنوعی قابل توضیح ارائه می شوند که این ظرفیت را دارند که به گیرنده یک خروجی دلیل آن را بگویند. زمانی

می توان از آنها استفاده کرد که افراد فقط بدانند چرا تصمیم خاصی در مورد آنها گرفته شده است و به تصمیمات

مربوط به دیگران دسترسی ندارند یا نمی توانند. لی سان

توضیحات محلی می‌تواند به شکل عباراتی باشد که به این سوال پاسخ می‌دهد، ویژگی‌های کلیدی مشتری که

اگر متفاوت بودند، خروجی یا تصمیم هوش مصنوعی را تغییر می‌دادند چیست؟ به عنوان مثال، اگر تنها تفاوت بین

دو متقاضی این است که یکی 24 ساله و دیگری 25 ساله است، توضیح آن این است که به اولین متقاضی اگر

بیش از 24 سال سن داشت وام داده می شد. مشکل اینجاست که ویژگی های شناسایی شده ممکن است

خود سوگیری ها را پنهان کنند. به عنوان مثال، ممکن است مشخص شود که کد پستی متقاضی چیزی است که

تفاوت را ایجاد می کند، در غیر این صورت متقاضیان قوی از محله های سیاه پوست جریمه می شوند.

مبادلات درگیر

 

قوی ترین الگوریتم ها ذاتاً مات هستند. به گروه مورچه های علی بابا در چین نگاه کنید که واحد MYbank آن از

هوش مصنوعی برای تایید وام های کسب و کار کوچک در کمتر از سه دقیقه بدون دخالت انسان استفاده می

کند. برای انجام این کار، داده‌ها را از سراسر اکوسیستم علی‌بابا، از جمله اطلاعات مربوط به فروش از پلتفرم‌های

تجارت الکترونیک خود، با یادگیری ماشینی برای پیش‌بینی ریسک‌های پیش‌فرض و حفظ رتبه‌بندی اعتباری بلادرنگ

ترکیب می‌کند.

از آنجایی که نرم افزار Ant از بیش از 3000 ورودی داده استفاده می کند، بیان واضح چگونگی رسیدن به ارزیابی

های خاص (چه رسد به ارائه توضیح کلی) عملاً غیرممکن است. بسیاری از برنامه های کاربردی هیجان انگیز

هوش مصنوعی به ورودی های الگوریتمی در مقیاس مشابه نیاز دارند. شرایط پرداخت متناسب در بازارهای B2B،

بیمه نامه و خودروهای خودران تنها برخی از زمینه هایی هستند که الزامات توضیحی دقیق هوش مصنوعی ممکن

است توانایی شرکت ها برای نوآوری یا رشد را مختل کند.

شرکت‌ها با ارائه خدماتی مانند Ant’s در بازارهایی که مصرف‌کنندگان و تنظیم‌کننده‌ها برای حقوق فردی ارزش

زیادی قائل هستند – به ویژه اتحادیه اروپا و ایالات متحده، با چالش‌هایی مواجه خواهند شد. برای استقرار چنین

هوش مصنوعی، شرکت‌ها باید بتوانند توضیح دهند که چگونه یک الگوریتم شباهت‌های بین مشتریان را تعریف

می‌کند، چرا تفاوت‌های خاص بین دو مشتری احتمالی ممکن است رفتارهای متفاوت را توجیه کند، و چرا مشتریان

مشابه ممکن است توضیحات متفاوتی در مورد هوش مصنوعی دریافت کنند.

انتظارات برای توضیحات نیز بر اساس جغرافیا متفاوت است، که چالش هایی را برای اپراتورهای جهانی ایجاد می

کند. آنها به سادگی می‌توانند سخت‌گیرانه‌ترین الزامات توضیح‌پذیری را در سرتاسر جهان بپذیرند، اما انجام این کار

به وضوح می‌تواند آنها را برای بازیگران محلی در برخی از بازارها در مضیقه قرار دهد. بانک‌هایی که از قوانین

اتحادیه اروپا پیروی می‌کنند برای تولید الگوریتم‌هایی به دقت الگوریتم‌های Ant در پیش‌بینی احتمال نکول وام‌گیرنده

تلاش می‌کنند و در نتیجه ممکن است در مورد الزامات اعتباری دقیق‌تر عمل کنند. از سوی دیگر، به‌کارگیری

استانداردهای توضیح‌پذیری چندگانه به احتمال زیاد پیچیده‌تر و پرهزینه‌تر خواهد بود، زیرا یک شرکت در اصل

الگوریتم‌های مختلفی را برای بازارهای مختلف ایجاد می‌کند و احتمالاً باید هوش مصنوعی بیشتری برای اطمینان

از قابلیت همکاری اضافه کند.

با این حال، برخی فرصت ها وجود دارد. الزامات توضیح‌پذیری می‌تواند منبع تمایز باشد: شرکت‌هایی که می‌توانند الگوریتم‌های هوش مصنوعی با قابلیت‌های توضیحی قوی‌تر توسعه دهند، در موقعیت بهتری برای جلب اعتماد مصرف‌کنندگان و تنظیم‌کننده‌ها خواهند بود. این می تواند پیامدهای استراتژیک داشته باشد. به عنوان مثال، اگر سیتی بانک بتواند هوش مصنوعی قابل توضیحی را برای اعتبارات کسب و کارهای کوچک تولید کند که به اندازه مورچه قدرتمند است، مطمئناً بر بازارهای اتحادیه اروپا و ایالات متحده تسلط خواهد داشت و حتی ممکن است در زمین خود مورچه جای پایی به دست آورد. توانایی برقراری ارتباط عادلانه و شفافیت تصمیمات پیشنهادات نیز یک تمایز بالقوه برای شرکت های فناوری است. IBM محصولی را توسعه داده است که به شرکت‌ها در انجام این کار کمک می‌کند: Watson OpenScale ، یک پلت‌فرم تجزیه و تحلیل داده مبتنی بر هوش مصنوعی برای تجارت.

نکته پایانی این است که اگرچه نیاز به هوش مصنوعی برای ارائه توضیحات برای تصمیماتش ممکن است راه خوبی برای بهبود عادلانه بودن و افزایش اعتماد سهامداران به نظر برسد، اما بهای سنگینی دارد – قیمتی که ممکن است همیشه ارزش پرداخت را نداشته باشد. در این صورت تنها انتخاب این است که یا به ایجاد تعادل بین خطرات ناشی از برخی نتایج ناعادلانه و بازده حاصل از خروجی دقیق تر برگردیم، یا اینکه استفاده از هوش مصنوعی را کنار بگذاریم.

یادگیری و تکامل

یک زمین در حال تغییر

 

یکی از ویژگی های متمایز هوش مصنوعی توانایی آن در یادگیری است. هر چه یک الگوریتم تشخیص تصویر با

برچسب‌گذاری بیشتری از گاوها و گورخرها تغذیه شود، احتمال تشخیص گاو یا گورخر بیشتر است. اما اشکالاتی

در یادگیری مداوم وجود دارد : اگرچه دقت می‌تواند در طول زمان بهبود یابد، همان ورودی‌هایی که دیروز یک نتیجه

را ایجاد کردند، فردا می‌توانند نتیجه متفاوتی را ثبت کنند، زیرا الگوریتم با داده‌هایی که در آن زمان دریافت کرده

تغییر کرده است.

رهبران کسب و کار در کشف چگونگی مدیریت الگوریتم‌هایی که تکامل می‌یابند – و اینکه آیا در وهله اول اجازه

یادگیری مداوم را می‌دهند یا خیر – باید روی سه عامل تمرکز کنند:

ریسک ها و پاداش ها.

 

نگرش مشتری نسبت به هوش مصنوعی در حال تکامل احتمالاً توسط یک محاسبه ریسک بازده شخصی تعیین

می شود. برای مثال، در قیمت‌گذاری بیمه، الگوریتم‌های یادگیری به احتمال زیاد نتایجی را ارائه می‌دهند که بهتر

از هر چیزی که انسان می‌تواند ارائه دهد، مطابق با نیازهای مشتری است، بنابراین مشتریان احتمالاً تحمل نسبتاً

بالایی برای آن نوع هوش مصنوعی خواهند داشت. در زمینه های دیگر، یادگیری ممکن است اصلاً نگران کننده

نباشد. به عنوان مثال، هوش مصنوعی که توصیه‌های فیلم یا کتاب را تولید می‌کند، می‌تواند با ورود اطلاعات

بیشتر در مورد خریدها و انتخاب‌های تماشای مشتری، با خیال راحت تکامل یابد.

اما وقتی خطر و تأثیر یک نتیجه ناعادلانه یا منفی زیاد است، مردم کمتر هوش مصنوعی در حال تکامل را

می‌پذیرند. اگر بدون هیچ نظارتی تغییر داده شوند، انواع خاصی از محصولات، مانند دستگاه های پزشکی، می

توانند برای کاربران خود مضر باشند. به همین دلیل است که برخی از تنظیم‌کننده‌ها، به ویژه سازمان غذا و داروی

ایالات متحده، استفاده از الگوریتم‌های «قفل‌شده» را مجاز کرده‌اند – که در هر بار استفاده از محصول یاد نمی‌گیرند

و بنابراین تغییر نمی‌کنند – در آنها. برای چنین پیشنهادهایی، یک شرکت می‌تواند دو نسخه موازی از یک الگوریتم

را اجرا کند: یکی فقط در تحقیق و توسعه استفاده می‌شود که به طور مداوم یاد می‌گیرد و یک نسخه قفل شده

برای استفاده تجاری که توسط تنظیم‌کننده‌ها تایید شده است. نسخه تجاری را می توان در فرکانس معینی با

نسخه جدید بر اساس نسخه ای که به طور مداوم در حال بهبود است – پس از تایید مقررات جایگزین کرد.

قانون‌گذاران همچنین نگران هستند که یادگیری مداوم می‌تواند باعث شود الگوریتم‌ها به روش‌های جدید و به

سختی قابل تشخیص باشند، متمایز شوند یا ناامن شوند. در محصولات و خدماتی که بی‌عدالتی یک نگرانی عمده

است، می‌توانید انتظار نورپردازی روشن‌تری در مورد تکامل نیز داشته باشید.

پیچیدگی و هزینه.

 

استقرار هوش مصنوعی یادگیری می تواند هزینه های عملیاتی را افزایش دهد. اولاً، شرکت‌ها ممکن است

الگوریتم‌های متعددی را در مناطق، بازارها یا زمینه‌های مختلف اجرا کنند که هر کدام به داده‌ها و محیط‌های محلی

پاسخ داده‌اند. سازمان ها ممکن است نیاز به ایجاد نقش ها و فرآیندهای نگهبان جدید داشته باشند تا مطمئن

شوند که همه این الگوریتم ها به درستی و در محدوده ریسک مجاز عمل می کنند. افسران ارشد ریسک ممکن

است مجبور شوند وظایف خود را گسترش دهند تا شامل نظارت بر فرآیندهای هوش مصنوعی مستقل و ارزیابی

سطح ریسک قانونی، مالی، شهرت و فیزیکی باشد که شرکت مایل به پذیرش هوش مصنوعی تکامل پذیر است.

شرکت ها همچنین باید تمرکززدایی را در مقابل شیوه های استاندارد شده ای که نرخ یادگیری هوش مصنوعی را

افزایش می دهد، متعادل کنند. آیا آنها می توانند یک ستون فقرات جهانی برای راه حل های دیجیتال و هوش

مصنوعی شرکت بسازند و حفظ کنند؟ سیستم های خودشان چقدر برای ذخیره سازی و پردازش غیرمتمرکز آماده

هستند؟

آنها چقدر برای پاسخ به تهدیدات امنیت سایبری آماده هستند؟ آیا تولید باید به مشتریان نهایی نزدیکتر شود یا

این که عملیات را در معرض خطرات جدیدی قرار می دهد؟ آیا شرکت ها می توانند استعدادهای باهوش هوش

مصنوعی کافی را در موقعیت های رهبری مناسب در بازارهای محلی جذب کنند؟ به همه این سوالات باید با تفکر

پاسخ داد.

ورودی انسان

داده های جدید یا تغییرات محیطی نیز می تواند باعث شود افراد تصمیمات خود را تنظیم کنند یا حتی مدل های

ذهنی خود را تغییر دهند. به عنوان مثال، یک مدیر استخدام ممکن است در دو زمان مختلف تصمیمات متفاوتی در

مورد یک متقاضی شغلی مشابه بگیرد، اگر کیفیت نامزدهای رقیب تغییر کند – یا حتی به این دلیل که بار دوم

خسته شده است. از آنجایی که هیچ مقرراتی برای جلوگیری از این اتفاق وجود ندارد، می‌توان موردی را مطرح کرد

که امکان تکامل هوش مصنوعی در نتیجه داده‌های جدید مجاز است. با این حال، برای جلب نظر مردم به این

دیدگاه، قانع کننده ای لازم است.

قانون‌گذاران نگران هستند که یادگیری مستمر باعث شود الگوریتم‌ها به روش‌های جدید و غیرقابل تشخیص متمایز

شوند یا ناامن شوند.

آنچه مردم ممکن است راحت تر بپذیرند این است که هوش مصنوعی به روشی هوشمندانه با تصمیم گیری

انسانی تکمیل می شود. همانطور که در مقاله HBR 2020 « روشی بهتر برای هوش مصنوعی داخلی » (تألیف

تئودوروس اوگنیو) توضیح داده شد، سیستم‌های هوش مصنوعی می‌توانند به‌عنوان «مربی» به کار گرفته شوند –

بازخورد و ورودی را به کارمندان (به عنوان مثال، معامله‌گران اوراق بهادار مالی در یک مدیریت دارایی ارائه می‌کنند).

محکم). اما این یک خیابان یک طرفه نیست: بیشتر ارزش همکاری ناشی از بازخوردهایی است که انسان ها به

الگوریتم ها می دهند. فیسبوک، در واقع، رویکرد جالبی را برای نظارت و تسریع یادگیری هوش مصنوعی با پلتفرم

Dynabench خود در پیش گرفته است . متخصصان انسانی را موظف می‌کند که به دنبال راه‌هایی برای فریب هوش

مصنوعی برای تولید یک نتیجه نادرست یا ناعادلانه با استفاده از چیزی به نام جمع‌آوری داده‌های متخاصم پویا

باشند.

هنگامی که انسان ها به طور فعال هوش مصنوعی را تقویت می کنند، می توانند نسبتاً سریع قفل ارزش را باز

کنند. در گفتگوی اخیر TED، سیلوین دورانتون از BCG توضیح داد که چگونه یک خرده فروش لباس تنها در یک سال

بیش از 100 میلیون دلار صرفه جویی کرد و به خریداران اجازه داد تا تخصص خود را در هوش مصنوعی که روند لباس

را پیش بینی می کند، وارد کنند.

. . .

با توجه به اینکه اتکای فزاینده به هوش مصنوعی – به ویژه یادگیری ماشینی – به طور قابل توجهی خطرات

استراتژیک پیش روی مشاغل را افزایش می دهد، شرکت ها باید نقش فعالی در نوشتن کتاب قوانین الگوریتم ها

داشته باشند. همانطور که تجزیه و تحلیل ها برای تصمیم گیری هایی مانند تاییدیه وام یا ارزیابی تکرار جرم اعمال

می شود، محفوظات در مورد سوگیری های پنهان همچنان افزایش می یابد. کدورت ذاتی برنامه نویسی پیچیده

زیربنای یادگیری ماشین نیز باعث ناراحتی می شود و نگرانی در مورد اینکه آیا ابزارهای مجهز به هوش مصنوعی

توسعه یافته برای یک جمعیت می توانند با خیال راحت در مورد سایر جمعیت ها تصمیم بگیرند، افزایش می

یابد. مگر اینکه همه شرکت‌ها – از جمله شرکت‌هایی که مستقیماً در توسعه هوش مصنوعی دخالت ندارند – زودتر

با این چالش‌ها درگیر شوند، خطر کاهش اعتماد به محصولات مبتنی بر هوش مصنوعی و ایجاد مقررات

محدودکننده غیرضروری را دارند که نه تنها سود کسب‌وکار بلکه ارزش بالقوه‌ای را که هوش مصنوعی می‌تواند به

مصرف‌کنندگان ارائه دهد تضعیف کند. و جامعه …..