نکات کلیدی
- اولویتدادن به هوش مصنوعی مسئولانه: سازمانها باید اصول شفاف و سیاستهای داخلی مشخصی را برای هدایت پیادهسازی اخلاقی هوش مصنوعی تعریف کنند و تمرکز خود را بر شفافیت، امنیت و حریم خصوصی قرار دهند تا به فشارهای روبهافزایش مقرراتی پاسخ دهند.
- درک چشماندازهای مقرراتی: قانون EU AI Act کاربردهای هوش مصنوعی را بر اساس سطوح ریسک دستهبندی میکند و سازمانها را ملزم میسازد الزامات انطباق را با دقت مدیریت کنند، بهویژه در حوزههای پرریسکی مانند منابع انسانی و حفاظت از مصرفکننده.
- همکاری میانوظیفهای: پیادهسازی هوش مصنوعی مسئولانه نیازمند همکاری میان چندین تیم از جمله امنیت، انطباق، حقوقی و حاکمیت هوش مصنوعی است تا راهبردهای مدیریت ریسک بازبینی شوند و یک رویکرد جامع برای حاکمیت هوش مصنوعی شکل بگیرد.
- توسعهٔ فرآیندهای عملی: شرکتها باید بر توسعهٔ فرآیندهای عملی تمرکز کنند که از غیرعملی بودن انجام ارزیابیهای انطباق جامع برای هر ابتکار هوش مصنوعی جلوگیری کند و چارچوب حاکمیت هوش مصنوعی را سادهتر سازد.
- بهرهگیری از چارچوبهای موجود: بسیاری از سازمانهای فینتکی از قبل عناصر پایهای مانند چارچوبهای مدیریت ریسک و قابلیتهای مدیریت ریسک مدل را در اختیار دارند که میتوان آنها را بهطور مؤثر در شیوههای هوش مصنوعی مسئولانه ادغام کرد و گذار به این رویکرد را هموارتر ساخت.
این مقاله به بررسی چشمانداز در حال تحول هوش مصنوعی مسئولانه در بخش فینتک میپردازد و بر تعامل میان انطباق مقرراتی، ملاحظات اخلاقی و شیوههای نوآورانه تمرکز دارد. با تلاش سازمانها برای بهرهگیری از فناوریهای هوش مصنوعی در عین پایبندی به دستورالعملهای نوظهور، درک پیامدهای هوش مصنوعی مسئولانه به امری حیاتی تبدیل میشود. ما بررسی خواهیم کرد که فینتکها چگونه با چالشهای شفافیت، مدیریت ریسک و کارایی عملیاتی در پیادهسازیهای هوش مصنوعی خود مواجه میشوند. این مقاله خلاصهای از ارائهٔ من در QCon London 2024 است.
در Databricks، من از خودم بهعنوان «سرپرست داده» یاد میکنم، بهدلیل تمرکزم بر حوزههای حیاتی مانند مسئولیتپذیری و بلوغ قابلیتها. در این مقاله، به مفهوم هوش مصنوعی مسئولانه میپردازم، روندهای فعلی را برجسته میکنم و توضیح میدهم که سازمانها چگونه در این چشمانداز حرکت میکنند. همچنین بهروزرسانیای از تحولات مقرراتی ارائه خواهم داد، بهویژه آنهایی که به بخش فینتک مرتبط هستند. در نهایت، به واکنشها و رویکردهای صنعت برای مواجهه با این چالشها میپردازم.
درک هوش مصنوعی مسئولانه
برای ایجاد زیربنای هوش مصنوعی مسئولانه، باید توجه داشت که ۸۰٪ از شرکتها قصد دارند سرمایهگذاری خود را در این حوزه افزایش دهند. با تلاش سازمانها برای بهرهبرداری از قابلیتهای هوش مصنوعی، نیاز به درک و مدیریت ریسکهای مرتبط با آن نیز در حال افزایش است. چالش اصلی در آزادسازی ارزش هوش مصنوعی در کنار کاهش ریسکهای بالقوهٔ اعتباری، حقوقی، کسبوکاری و مالی نهفته است.
هوش مصنوعی مسئولانه را میتوان در چندین سطح بررسی کرد که هرکدام به درک جامعتری از پیامدها و اهمیت آن در چشمانداز فناوری امروز کمک میکنند. انطباق مقرراتی یک پایهٔ حیاتی را تشکیل میدهد و تضمین میکند که شرکتها با دستورالعملها و استانداردهای تعیینشده همسو هستند. این انطباق صرفاً یک تمرین تیکزدن چکلیست نیست، بلکه برای حفظ مشروعیت عملیاتی و جلوگیری از پیامدهای شدید، از جمله جریمهها، چالشهای حقوقی و آسیبهای اعتباری ضروری است. سازمانها باید خود را با مقررات در حال تحول، مانند EU AI Act، بهروز نگه دارند تا بتوانند این پیچیدگیها را بهطور مؤثر مدیریت کنند.
فراتر از انطباق، وارد حوزهٔ اخلاق میشویم که شامل تأمل عمیقتری دربارهٔ اقدامات و تصمیمهایی است که در زمینهٔ استقرار هوش مصنوعی اتخاذ میشوند. در اینجا، شرکتها باید در نظر بگیرند چه چیزهایی با ارزشهای بنیادین آنها همراستا است و تلاش کنند فناوریهایی را پیادهسازی کنند که تأثیر مثبتی بر ذینفعان و جوامع داشته باشند. با این حال، تبدیل این آرمانهای اخلاقی به گامهای اجرایی چالشهای خاص خود را دارد. سازمانها اغلب در درک استانداردهای اخلاقی دچار مشکل میشوند، و این موضوع تعریف اینکه هوش مصنوعی مسئولانه در کاربردهای واقعی چگونه باید باشد را دشوار میکند. این سردرگمی میتواند ناشی از عوامل مختلفی مانند اولویتهای متضاد، تفسیرهای متفاوت از مفهوم اخلاق، و ماهیت بهسرعت در حال تحول فناوریهای هوش مصنوعی و آثار آنها باشد. آنچه در نهایت شکل میگیرد، جایی میان انطباق بهعنوان حداقل پایه و هوش مصنوعی اخلاقی بهعنوان یک آرمان است — و این همان هوش مصنوعی مسئولانه است.
من پیادهسازی هوش مصنوعی مسئولانه را در چهار سطح متمایز دستهبندی میکنم:
سطح برنامه
این بالاترین سطح، چشمانداز هوش مصنوعی مسئولانه برای یک سازمان را منعکس میکند و آغازگر پیادهسازی آن است. در این سطح، اصول اخلاقیای تعریف میشوند که شرکت را هدایت میکنند و معمولاً توسط مدیران ارشد یا هیئتمدیره بیان میشوند. این اصول اغلب شامل تعهد به انصاف، شفافیت و انسانمحوری و مواردی از این دست هستند.
سطح سیاستگذاری
گام بعدی، ترجمهٔ اصول سطح بالا به سیاستهای مشخص و عملی است. این کار شامل تعریف قواعد و چارچوبهایی میشود که استفاده از هوش مصنوعی را در سازمان هدایت میکنند. هر پروژهٔ هوش مصنوعی باید در برابر این سیاستها ارزیابی شود تا از انطباق آن اطمینان حاصل گردد.
سطح فرآیند
این سطح بر پیادهسازی سیاستها از طریق فرآیندها تمرکز دارد. برای مثال، سازمانها ممکن است یک هیئت بازبینی هوش مصنوعی ایجاد کنند که مسئول ارزیابی کاربردهای هوش مصنوعی باشد و هر مورد استفادهٔ جدید پیش از شروع توسعه در آن مطرح شود. این لایه همچنین شامل ممیزی و یکپارچهسازی حاکمیت هوش مصنوعی با فرآیندهای موجود مانند تدارکات و امنیت سایبری است.
سطح اجرا
در پایینترین سطح این چارچوب، پیادهسازی عملی هوش مصنوعی مسئولانه قرار دارد. این شامل ابزارها، تکنیکها و الگوهایی است که برای توسعهٔ مسئولانهٔ سیستمهای هوش مصنوعی استفاده میشوند. هدف این است که اطمینان حاصل شود شیوههای اجرایی بهطور مستمر با ساختار حاکمیتی همسو هستند و از اصول اخلاقی سازمان پشتیبانی میکنند.
سازمانها امروز اصول هوش مصنوعی خود را با توازنی دقیق میان امنیت، حریم خصوصی و کارایی شکل میدهند. امنیت و حریم خصوصی بهطور فزایندهای مورد تأکید قرار میگیرند، بهویژه با توجه به اینکه استانداردهای مقرراتی مانند GDPR و EU AI Act شرکتها را ملزم به رعایت استانداردهای بالایی در مدیریت داده و شفافیت میکنند. اقدامات امنیتی قوی برای حفظ اعتماد کاربران و جلوگیری از نقضهای پرهزینه حیاتی هستند و با الزامات قانونی و تابآوری عملیاتی همراستا میباشند.
کارایی نیز به همان اندازه مهم است، بهویژه در صنایع مبتنی بر فناوری مانند فینتک، جایی که هزینههای توسعه و نگهداری هوش مصنوعی میتواند بهسرعت افزایش یابد. شرکتها با سادهسازی مدلها، بهکارگیری شیوههای کارآمد داده و انتخاب زیرساختهای کممصرف از نظر انرژی، از هوش مصنوعی استفاده میکنند و در عین حال هزینهها را کنترل مینمایند. این شیوهها از رشد پایدار هوش مصنوعی پشتیبانی میکنند و پیشرفتها در محاسبات سبز و معماریهای کممصرف به کاهش ردپای کربن و هزینههای عملیاتی کمک میکنند.
بهروزرسانی مقررات در زمینهٔ انطباق هوش مصنوعی (AI Compliance)
بهطور قابل توجهی، ۷۷٪ از شرکتها انطباق مقرراتی را در ابتکارات هوش مصنوعی خود در اولویت قرار میدهند، بهویژه با توجه به قانون در راه EU AI Act. این قانون بهطور خاص سازمانهایی را که با شهروندان اتحادیهٔ اروپا کار میکنند یا به آنها خدمات میدهند تحت تأثیر قرار خواهد داد و فوریت انطباق را افزایش میدهد.
الزامات مقرراتی بهطور مداوم در حال تغییر هستند، و این امر ایجاب میکند که شرکتها از تحولات آگاه بمانند. در ایالات متحده، رویکرد عمدتاً بر تضمین پایبندی به قوانین موجود متمرکز بوده است، حتی زمانی که هوش مصنوعی درگیر باشد. برای مثال، رویههای غیرقانونی یا تبعیضآمیز برای انسانها، زمانی که توسط سیستمهای هوش مصنوعی انجام شوند نیز همچنان غیرقانونی باقی میمانند. حوزههای کلیدی مانند حفاظت از داده و مصرفکننده، مالکیت فکری و قوانین ضدتبعیض بدون توجه به فناوری مورد استفاده همچنان اعمال میشوند.
در اروپا، چشمانداز مقرراتی با یک چارچوب سلسلهمراتبی مبتنی بر ریسک برای استفاده از هوش مصنوعی مشخص میشود. این رویکرد بر سطوح مختلف ریسک مرتبط با کاربردهای گوناگون هوش مصنوعی و نحوهٔ مدیریت آنها تأکید دارد. در مقابل، موضع مقرراتی چین اجازهٔ توسعهٔ هوش مصنوعی را میدهد، مادامی که با اهداف اجتماعی حزب حاکم همراستا باشد.
در سطح جهانی، کشورهایی مانند ژاپن، هند، برزیل و استرالیا در حال توسعهٔ چارچوبهای مقرراتی خود هستند که هرکدام الزامات انطباق منحصربهفردی دارند. این تنوع مقرراتی چشمانداز را پیچیدهتر میکند، بهویژه برای شرکتهای چندملیتی که باید تعهدات حقوقی متفاوتی را در حوزههای قضایی مختلف مدیریت کنند.
علاوه بر این، قوانین ضدانحصار تأکید میکنند که هوش مصنوعی نباید محیطی ضد رقابتی ایجاد کند. سازمانها باید اطمینان حاصل کنند که کاربردهای هوش مصنوعی آنها با این استانداردهای قانونی همسو هستند تا از پیامدهای جدی جلوگیری شود.
قانون EU AI Act: چهار دستهٔ ریسک
قانون EU AI Act چارچوبی را معرفی میکند که سیستمهای هوش مصنوعی را در چهار سطح ریسک متمایز دستهبندی میکند؛ موضوعی که سازمانها باید هنگام استفادهٔ مسئولانه از فناوریهای هوش مصنوعی آن را بهخوبی درک کنند.
دستهٔ ریسک غیرقابلقبول شامل کاربردهای هوش مصنوعی است که بهطور کامل ممنوع شدهاند، مانند پروفایلسازی رفتاری و نظارت بیومتریک تهاجمی. هدف از این ممنوعیت جلوگیری از تحریفهای جدی در رفتار و نقض حریم خصوصی است. سازمانها باید اطمینان حاصل کنند که در هیچ فعالیتی که در این دسته قرار میگیرد مشارکت ندارند، زیرا انطباق با این مقررات در آیندهٔ نزدیک الزامی خواهد بود.
سیستمهای هوش مصنوعی پرریسک ممکن است بر معیشت، سلامت یا ایمنی افراد تأثیر بگذارند. شرکتهایی که این سیستمها را پیادهسازی میکنند باید یک فرآیند مستندسازی سختگیرانه به نام ارزیابی انطباق (conformity assessment) را طی کنند. این فرآیند شامل ارائهٔ مستندات گستردهای است که استفاده از مدلهای هوش مصنوعی را توجیه کرده و انطباق با استانداردهای اخلاقی را نشان میدهد.
برای سیستمهای هوش مصنوعی که در دستهٔ ریسک محدود قرار میگیرند، شفافیت دربارهٔ ماهیت هوش مصنوعی آنها هنگام تعامل با افراد حیاتی است. برای مثال، اگر یک کاربرد هوش مصنوعی برای رزرو تماس تلفنی برقرار کند، باید خود را بهعنوان هوش مصنوعی معرفی کند. این الزام به سیستمهای داخلی نیز تعمیم مییابد تا کارکنان بدانند با هوش مصنوعی تعامل دارند، نه با یک برنامهٔ سنتی.
سیستمهایی مانند تشخیص تقلب معمولاً در دستهٔ ریسک حداقلی قرار میگیرند. اگرچه این سیستمها کمریسک تلقی میشوند، سازمانها باید دستورالعملهای این قانون را به خاطر داشته باشند. این سیستمها با دادههای حساس کار میکنند و رفتارها و تراکنشهای کاربران را برای شناسایی تقلب تحلیل میکنند، بنابراین شفافیت و دقت همچنان ضروری است. هرچند دستهبندی ریسک حداقلی به اقدامات مقرراتی کمتری نیاز دارد، شرکتها باید امنیت داده، انصاف و ممیزیهای منظم را در اولویت قرار دهند تا از سوگیریهای ناخواسته جلوگیری شود. با رعایت این استانداردها، سازمانها هم انطباق را حفظ میکنند و هم اعتماد ایجاد مینمایند و خود را برای تغییرات احتمالی مقررات آینده آماده میسازند.
سازمانها همچنین باید به مفاد خاص مربوط به هوش مصنوعی همهمنظوره و مدلهای پایه توجه کنند که شامل معیارهای شفافیت و عملکرد میشود. افزون بر این، مقررات اخیر Consumer Duty مسئولیتهای بیشتری را بر شرکتهای فینتک تحمیل میکند و آنها را ملزم میسازد سیستمهای هوش مصنوعی را با تمرکز بر نتایج مثبت برای مشتری طراحی کنند و در عین حال زنجیرههای تأمین دادهٔ خود را بهطور مؤثر ردیابی نمایند. این به معنای اطمینان از آن است که کاربردهای هوش مصنوعی از ریسکهای آشکار جلوگیری میکنند و بهوضوح نشان میدهند دادهها چگونه جمعآوری، برچسبگذاری و استفاده میشوند. درک و رعایت این مقررات برای سازمانها در هنگام پیادهسازی هوش مصنوعی در چارچوبی اخلاقی و مسئولانه حیاتی خواهد بود.
تحولآفرینی و پیامدهای نیروی کار در تکامل هوش مصنوعی فینتک (FinTech’s AI Evolution)
واکنش شرکتهای فینتک به ادغام هوش مصنوعی مولد قابل توجه است. یک نظرسنجی اخیر نشان داد که این سازمانها انتظار دارند طی سه سال آینده افزایش درآمدی بین ۱۰٪ تا ۳۰٪ داشته باشند که عمدتاً به استفادهٔ آنها از هوش مصنوعی مولد نسبت داده میشود.
شهرت فینتک به تحولآفرینی از ماهیت فناورانه و متنباز آن ناشی میشود. شرکتهای این حوزه به دنبال تغییرات بنیادین هستند، نه صرفاً بهبودهای تدریجی. با بهرهگیری از مدلهای متنباز، شرکتهای فینتک میتوانند شفافیت زنجیرههای تأمین هوش مصنوعی خود را افزایش دهند و ارزیابیهای انطباق را مؤثرتر مدیریت کنند، که این امر آنها را در بازار رقابتی در موقعیت بهتری قرار میدهد.
با این حال، این تلاش برای تحول سؤالاتی را دربارهٔ پیامدهای آن برای نیروی کار ایجاد میکند. برخی شرکتها بهطور علنی دربارهٔ کاهش بالقوهٔ نیروی کار به واسطهٔ هوش مصنوعی صحبت کردهاند. برای مثال، مدیرعامل Klarna اخیراً اشاره کرد که چتبات آنها دو سوم درخواستهای خدمات مشتریان را مدیریت میکند و کارایی و کیفیت را بهبود داده است، در حالی که احتمالاً حدود ۷۰۰ موقعیت شغلی برونسپاریشده را حذف کرده است. اگرچه بسیاری از سازمانها هنوز در پذیرش عمومی کاهش نیروی کار تردید دارند، این روند در گفتوگوهای سراسر صنعت مشهود است. یک سازمان بزرگ به امکان کاهش ۲٬۰۰۰ تحلیلگر خود به تنها ۲۰۰ نفر از طریق پیادهسازی مؤثر هوش مصنوعی اشاره کرد.
این سناریو یک ملاحظهٔ اخلاقی حیاتی را برجسته میکند: توازن میان مشتریمحوری و تضمین رفاه کارکنان. با ادامهٔ نوآوری فینتک، تصمیمهایی که در مورد ادغام هوش مصنوعی گرفته میشود پیامدهای قابل توجهی خواهد داشت و شرکتها را به چالش میکشد تا ضمن دنبال کردن اهداف خود، پیچیدگیهای هوش مصنوعی مسئولانه را مدیریت کنند.
ساخت یک چارچوب برای هوش مصنوعی مسئولانه در فینتک
برای مدیریت پیچیدگیهای پیادهسازی هوش مصنوعی مسئولانه، سازمانها باید اصول روشنی تعیین کنند که سطح شفافیتی را که ارائه میدهند و مخاطبان آن را مشخص کند. این سیاستهای داخلی برای هدایت استفاده از هوش مصنوعی حیاتی هستند. شرکتهای فینتکی که معمولاً چارچوبهای مدیریت ریسک قدرتمندی دارند، باید این چارچوبها را برای پوشش ریسکهای مرتبط با هوش مصنوعی گسترش دهند. این فرآیند ارزیابی شامل شناسایی ریسکهای بالقوهٔ مرتبط با استقرار هوش مصنوعی و تعیین «مناطق پرواز ممنوع» یا حوزههایی است که استفاده از هوش مصنوعی در آنها بیش از حد پرریسک تلقی میشود. برای مثال، اگر سازمانی بخواهد از انجام ارزیابیهای انطباق گسترده برای کاربردهای هوش مصنوعی در تصمیمگیریهای منابع انسانی اجتناب کند، ممکن است بهطور کامل از استفادهٔ هوش مصنوعی در آن زمینهها صرفنظر کند.
همکاری میانوظیفهای برای پیادهسازی موفق و مسئولانهٔ هوش مصنوعی حیاتی است. این امر مستلزم مشارکت چندین واحد سازمانی از جمله امنیت، انطباق، حقوقی و تیمهای حاکمیت هوش مصنوعی است تا راهبردهای مدیریت ریسک در چشمانداز هوش مصنوعی بهطور جمعی بازبینی و تقویت شوند. گردهمآوردن این تیمهای متنوع امکان درک جامعتری از ریسکها و سازوکارهای حفاظتی در سراسر سازمان را فراهم میکند و به شکلگیری رویکردی همهجانبه برای حاکمیت هوش مصنوعی کمک مینماید. یک راه عملی برای تضمین نظارت مؤثر و تقویت این همکاری، ایجاد یک هیئت بازبینی هوش مصنوعی است که از نمایندگان هر کارکرد کلیدی تشکیل شده باشد. این هیئت بهعنوان یک نهاد متمرکز برای نظارت بر پایبندی به سیاستهای هوش مصنوعی، انطباق مقرراتی و ملاحظات اخلاقی عمل خواهد کرد و اطمینان میدهد که همهٔ جنبههای ریسک هوش مصنوعی بهصورت منسجم و شفاف مورد توجه قرار میگیرند.
سازمانها همچنین باید بر ایجاد فرآیندهای واقعبینانه و سادهشده برای استفادهٔ مسئولانه از هوش مصنوعی تمرکز کنند و الزامات مقرراتی را با امکانپذیری عملیاتی متعادل سازند. اگرچه ممکن است وسوسهانگیز باشد که یک فرآیند یکنواخت تعریف شود، برای مثال فرآیندی که برای هر سیستم هوش مصنوعی ارزیابی انطباق تولید کند، اما چنین رویکردی منجر به تأخیر قابل توجه در زمان دستیابی به ارزش خواهد شد. در عوض، شرکتها باید پیش از حرکت به سمت تولید، ارزش در برابر تلاش سیستمها را بهدقت ارزیابی کنند، از جمله مستندسازی مقرراتی مورد نیاز. این رویکرد متمرکز به سازمانها کمک میکند انطباق مقرراتی را کارآمدتر مدیریت کنند و در عین حال به تیمها امکان میدهد با سرعت و مسئولیتپذیری نوآوری کنند.
نتیجهگیری
در مجموع، با ادامهٔ تحول صنعت فینتک بهواسطهٔ هوش مصنوعی، درک و سازگاری با یک چشمانداز مقرراتی بهسرعت در حال تغییر ضروری است. با قوانینی مانند EU AI Act و مقررات Consumer Duty، شرکتها باید شفافیت، نتایج مشتریمحور و چارچوبهای جامع مدیریت ریسک را در اولویت قرار دهند تا هم انطباق را حفظ کنند و هم اعتماد بسازند. مزیت متمایز فینتک در بهرهگیری از مدلهای متنباز و رویکردهای نوآورانه میتواند از جاهطلبیهای این صنعت پشتیبانی کند، اما حرکت مسئولانه در پیادهسازی هوش مصنوعی کلید رشد پایدار است. با همراستا کردن اصول، ایجاد فرآیندهای شفاف و تقویت همکاری میانوظیفهای، سازمانهای فینتکی میتوانند پیشگام پذیرش اخلاقی هوش مصنوعی باشند و میان نوآوری و پاسخگویی تعادل برقرار کنند. در نهایت، این تعهد به هوش مصنوعی مسئولانه نهتنها شرکتها را در برابر ریسکهای مقرراتی محافظت میکند، بلکه اعتبار این بخش را تقویت کرده و پایهای محکم برای پیشرفتهای آینده فراهم میسازد.
