هوش مصنوعی مولد نوید فرصتهای گستردهای برای افزایش بهرهوری میدهد؛ بنابراین طبیعی است که کسبوکارها با سرعت بهدنبال راههایی برای ادغام هوش مصنوعی در عملیات خود باشند. یکی از گزینههای برجسته، استفاده از مدلهای زبانی بزرگ (LLMs) است و یکی از راحتترین روشها برای تعامل با LLMها، استفاده از APIها است.
توسعهدهندگان میتوانند از طریق APIها به LLMهای محبوب، مانند مدلهای ارائهشده توسط Google یا OpenAI، دسترسی پیدا کنند. وجود پلنهای رایگان (free tier) این امکان را فراهم میکند تا پردازش زبان طبیعی (NLP) در برنامهها ادغام شود. این موضوع، پذیرش هوش مصنوعی مولد را در طیف وسیعی از کاربردها و پلتفرمها تسریع میکند.
APIها انتقال دادههای مهم بین LLMهای ارائهشده توسط فروشندگان و سازمانهایی که از آنها استفاده میکنند را تسهیل میکنند. با این حال، این موضوع آسیبپذیریهای امنیتی مهمی را نیز بههمراه دارد که نیازمند توجه جدی است. در صورت پیادهسازی نادرست، APIها و LLMها ممکن است بهطور ناخواسته دسترسی غیرمجاز ایجاد کنند، اطلاعات را افشا نمایند و در معرض انواع حملات امنیتی قرار بگیرند.
ظهور LLMها
هوش مصنوعی (AI) مدتهاست که حوزهای مهم در علوم کامپیوتر بوده، اما در گذشته اغلب خارج از کاربردهای خاص، عملی و قابلاستفاده تلقی نمیشد. بهطور تاریخی، AI به وظایف محدود و محیطهای کنترلشده اختصاص داشت و توانایی انجام وظایف نامرتبط را نداشت. معرفی مدلهای مولد این وضعیت را تغییر داد و مسیر را برای LLMهای پیشرفتهای که امروز در حوزه هوش مصنوعی مولد میبینیم هموار کرد.
LLMها بهطور مداوم با کمک مدلهای ازپیشآموزشدیده و مخازن داده پالایششده بهبود مییابند. این LLMهای ارتقایافته اکنون در دسترس عموم قرار گرفتهاند و این فناوری تحولآفرین را برای مخاطبان گستردهتری قابلاستفاده کردهاند. LLMها قادرند انواع مختلفی از محتوا، از جمله متن، طراحی، صوت و ویدئو تولید کنند و میتوانند در کنار سایر برنامهها برای انجام وظایفی مانند تحلیل داده و بازیابی اطلاعات بهکار گرفته شوند.
در نتیجه، کسبوکارها با شتاب بهدنبال بهرهگیری از قدرت هوش مصنوعی مولد برای خودکارسازی فرآیندها، بهبود خدمات مشتری، بهینهسازی تحقیق و توسعه و افزایش بهرهوری کلی عملیات هستند.
با وجود روشنبودن پتانسیل LLMها، ادغام آنها در عملیات کسبوکار بهطور همزمان ضعفهایی را در چارچوبهای امنیتی آشکار کرده و معیارهای تحول دیجیتال را جابهجا نموده است. برای مدیریت چشمانداز پیچیده چالشهای امنیت دیجیتال مرتبط با دسترسی به LLMها، سازمانها به یک چارچوب قدرتمند مدیریت API و امنیت API نیاز دارند تا این نگرانیها را بهصورت پیشگیرانه شناسایی و کاهش دهند.
ارتباط بین APIها و ریسکهای امنیتی LLM
LLMهایی که خروجیهای هوش مصنوعی مولد ارائه میدهند، به داده دسترسی نیاز دارند. اتصال LLMها به دادههای حساس سازمانی، ریسکهای امنیتی بیشتری ایجاد میکند؛ اما این ریسکها با استفاده از APIها و مدیریت API قابلکاهش هستند.
OWASP (Open Worldwide Application Security Project) که یک نهاد بینالمللی متمرکز بر امنیت نرمافزار است، اخیراً ۱۰ ریسک امنیتی مهم مرتبط با LLMها را معرفی کرده است که شامل موارد زیر میشود:
-
Prompt injection
-
Insecure output handling
-
Training data poisoning
-
Model denial of service
-
Supply chain vulnerabilities
-
Sensitive information disclosure
-
Insecure plugin design
-
Excessive agency
-
Overreliance
-
Model theft
برخی از این آسیبپذیریها را میتوان با منابع مدیریت API برطرف یا پایش کرد. یکی از ریسکهای امنیتی رایج که با مدیریت API قابل پیشگیری است، Prompt injection است. این ریسک، LLMهایی را تحتتأثیر قرار میدهد که از پرامپتها یاد میگیرند، مانند Bard یا ChatGPT. APIهایی که دسترسی LLM را محدود کرده و عملکرد آن را در چارچوبهای مشخص تقویت میکنند، این مشکل را برطرف میسازند. در غیر این صورت، کاربران مخرب میتوانند LLMها را برای انجام اقدامات غیرمجاز دستکاری کنند؛ اقداماتی مانند افشای اطلاعات حساس یا عملکردن بهعنوان یک عامل ناخواسته.
برای محافظت پیشگیرانه در برابر این سوءاستفادهها و موارد مشابه، کسبوکارها میتوانند از API tokenها برای محدودکردن دسترسی LLM به دستورات خارجی یا بخشهایی از پایگاههای داده استفاده کنند. این کار ریسک ورودیهای دستکاریشده یا افشای ناخواسته اطلاعات حساس را کاهش میدهد. سازمانها میتوانند با قابلیتهای مدیریت API و امنیت API، ریسکهای امنیتی LLM را کنترل و کاهش دهند.
گستره این تهدیدهای امنیتی همچنین نشان میدهد که اتکا صرف به فروشندگان LLM برای امنیت میتواند نتایج نامطلوبی بههمراه داشته باشد. سازمانها به یک استراتژی قدرتمند مدیریت API و امنیت API نیاز دارند تا ریسک اتصال و استفاده از LLMها را کاهش دهند.
نمونههایی از شکستهای API مرتبط با LLM
در ۴ دسامبر ۲۰۲۳، تیم تحقیقاتی Lasso Security موفق شد بیش از ۱۵۰۰ توکن API را در مخازن GitHub و Hugging Face شناسایی و افشا کند. این نقص امنیتی، دسترسی غیرمجاز به ۷۲۳ حساب متعلق به نهادهای بزرگی مانند Google، Meta و Microsoft را فراهم کرد.
اهمیت این رخداد زمانی آشکارتر میشود که پیامدهای احتمالی نیت مخرب پژوهشگران را در نظر بگیریم. با چنین سطحی از دسترسی، مهاجمان میتوانستند دادههای آموزشی را دستکاری کرده و خروجی LLMها را برای میلیونها کاربر در سراسر جهان مخدوش کنند.
Bar Lanyado، پژوهشگر Lasso Security، اعلام کرد: «از تعداد توکنهایی که توانستیم افشا کنیم و نوع آنها بهشدت شگفتزده شدم. ما توانستیم به توکنهای تقریباً تمام شرکتهای بزرگ فناوری دسترسی پیدا کنیم و کنترل کامل برخی از آنها را بهدست آوریم.»
نمونه دیگری از شکست امنیت API در سال ۲۰۲۳ رخ داد؛ زمانی که پژوهشگران هوش مصنوعی Microsoft بهطور ناخواسته مجوزهای نامحدود برای ۳۸ ترابایت اطلاعات حساس، شامل پیامهای داخلی، کلیدهای محرمانه و موارد دیگر، صادر کردند. این خطا در جریان توسعه یک مجموعهداده آموزشی LLM اتفاق افتاد که بهاشتباه با مجوزهای نادرست در GitHub منتشر شد.
این حوادث نمونههای روشنی از کاستیهای جدی در تدابیر امنیتی مرتبط با API هستند و پرسشهای مهمی را درباره سازوکارهایی که به چنین خطاهایی منجر میشوند مطرح میکنند؛ بهویژه وقتی این اتفاقات در شرکتهای بزرگ و پیشرو فناوری رخ میدهد. این رخدادها چگونه اتفاق میافتند و چرا حتی برای بهترین شرکتهای فناوری جهان نیز پیش میآیند؟
چگونه ابزارهای مدیریت API امنیت را بهبود میدهند
برخی فروشندگان هوش مصنوعی، راهکارهای امنیتی جامعی را همراه با LLMها ارائه میکنند. یکی از نمونهها Einstein از Salesforce است که لایه اعتماد (Trust Layer) آن مانند یک شبکه ایمنی برای کاربران عمل میکند. در مقابل، توسعهدهندگانی که برنامههای ثانویه هوش مصنوعی را مستقیماً بر پایه Google Cloud یا OpenAI و با قابلیتهای چندگانه برای استفاده عمومی میسازند، ممکن است ناخواسته ویژگیها را بر ملاحظات امنیتی مقدم بدانند. با درک این موضوع، سازمانهایی که قصد دارند مشتقات جدید هوش مصنوعی را سریع ادغام کنند، با چالش پیادهسازی AI بدون بهخطرانداختن امنیت و در عین حال مدیریت APIهای جدید مواجه میشوند.
خوشبختانه، راهکارهایی وجود دارند که حفاظت، حاکمیت و مدیریت مناسب API را فراهم میکنند تا سازمان شما بتواند این چالش را برطرف کند. با Anypoint API Manager و Anypoint Flex Gateway از MuleSoft، تیمهای IT میتوانند سیاستهای امنیتی را پیکربندی و اعمال کنند تا جریان اطلاعات ورودی و خروجی LLMها را پایش و مدیریت کرده و از دادههای حساس سازمانی و اطلاعات شخصی محافظت نمایند.
علاوه بر این، قابلیتهای مدیریت API در MuleSoft امکان اعمال سیاستهای احراز هویت سفارشی، پیادهسازی محدودیت نرخ (rate limiting) و استفاده از Policy Development Kit (PDK) جدید برای Anypoint Flex Gateway را فراهم میکند تا ایجاد سیاستهای امنیتی انعطافپذیر سادهتر شود. این مجموعه ابزار جامع، احراز هویت کاربران، شناسایی اطلاعات حساس، کشف APIهای استقراریافته اما شناسایینشده و کنترل پیشرفتهتر بر عملیات دیجیتال و استفاده از LLMها را ممکن میسازد.
