85183

زنجیره تأمین هوش مصنوعی (AI Supply Chain) چیست؟

هوش مصنوعی مولد در همه جا جای خودش را پیدا کرده و چه آن را دوست داشته باشید یا نه، قرار نیست جایی برود. وقتی هیاهو کم‌کم فروکش می‌کند، کاربردهای واقعی و مفیدی که دیگر زورکی جا داده نشده‌اند، پدیدار خواهند شد.

در واقع همین حالا نیز این اتفاق در حال رخ دادن است، و حتی خیلی هم جدید نیست – اما کمتر درباره‌اش صحبت می‌شود و یک قابلیت شگفت‌انگیز دارد:

استفاده از ابزارها: توانایی یک مدل زبانی برای اینکه به‌صورت فعال تصمیم بگیرد ابزاری را که شما در اختیارش قرار داده‌اید انتخاب و سپس از آن برای پاسخ به پرسش یا انجام یک کار استفاده کند.

ابزارهای نسل بعدی

مدل‌های زبانی مولد بزرگ مدت‌هاست که این توانایی را دارند (ابتدا ChatGPT 3.5 از OpenAI و سپس Claude Sonnet 3.5، در حالی که Llama 3.1 و ۳.۲ نیز مقداری پشتیبانی دارند، اما به‌کارگیری آن‌ها پیچیده است).

نکته مهم اینجاست که می‌توانیم ابزارها را در عامل‌های هوش مصنوعی قرار دهیم (راهی برای ساختاربندی LLMها تا مستقل عمل کنند، گاه به‌صورت گروهی، برای تکمیل یک وظیفه در طول زمان). به این معنا که می‌توانید آن‌ها را برای یک وظیفه تخصصی کنید و ابزارهای مرتبط با همان وظیفه را در اختیارشان قرار دهید: پژوهشگران (با جستجوی وب و پشتیبانی پایگاه‌داده)، تولیدکنندگان محتوا (با راهنماهای نوشتاری و لحن برند)، تست‌کنندگان (با ابزارهای تضمین کیفیت و محیط‌های کدنویسی ایزوله)، برنامه‌ریزان (با ابزارهای مدیریت پروژه)، و غیره.

استفاده از ابزارها، یک LLM را از یک گزینه جالب (اما کمی غیرقابل اعتماد) برای جستجو، به یک جزء مفید در گردش‌کار روزانه شما ارتقا می‌دهد.

مثال ساده‌ای از استفاده ما از ابزارها در پورتال هوش مصنوعی خودمان در Tyk:

  • از آن می‌خواهم فهرست تیکت‌های بازشده در رهگیر محصول JIRA در ۱۲ ساعت گذشته را نمایش دهد

  • مدل زبانی از ابزار JIRA ما استفاده می‌کند، پرس‌وجو را با JQL انجام می‌دهد و فهرستی خوانا از تیکت‌های جدید ارائه می‌دهد

  • متوجه می‌شوم یکی از آن تیکت‌ها از پشتیبانی مشتری ایجاد شده

  • از آن می‌خواهم بگوید کدام مشتری باعث باز شدن آن تیکت شده

  • دوباره از ابزار JIRA استفاده می‌کند و اطلاعات را گرفته و نام شرکت را می‌دهد

  • می‌پرسم شرکت X چه مدت است که مشتری ماست

  • به‌درستی تشخیص می‌دهد دو سال است مشتری ماست

  • اطلاعات بیشتری درباره مشکل‌شان می‌خواهم

  • مدل زبانی ابزار پشتیبانی مشتری را استفاده کرده، رشته مکالمه را می‌خواند و خلاصه‌ای از مورد استفاده مشتری که منجر به مشکل شده ارائه می‌دهد

همه این کارها را می‌توانستم با مرورگر انجام دهم و اگر سیستم‌ها یکپارچه باشند تنها چند کلیک فاصله داشتم.

اما همچنان سریع‌تر و مستقیم‌تر است که از مدل بپرسم تا اینکه در ۴ سیستم مختلف با کلیدهای 2FA و ورودهای SSO نصفه‌نیمه، سر و کله بزنم و خودم داده‌ها را از دل سر و صدا بیرون بکشم.

استفاده LLMها از ابزارها یک ابرقدرت است

در پشت صحنه، این مدل‌ها از API برای فراخوانی ابزارها استفاده می‌کنند و اینجاست که اهمیت APIها در موفقیت LLMها در سازمان نمایان می‌شود.

استفاده از ابزار توسط مدل مستقیم نیست، بلکه تفویض شده است: به‌طور خاص به کاربر یا همان کلاینت گفتگو تفویض می‌شود:

  • کلاینت پیام را به LLM می‌فرستد

  • کلاینت فهرست ابزارهای موجود و پارامترها را ارسال می‌کند

  • LLM تصمیم می‌گیرد ابزار مورد نیاز را فراخوانی کند و دستور فراخوانی را به‌همراه پارامترها بازمی‌گرداند

  • کلاینت فراخوانی ابزار را انجام می‌دهد و داده را به LLM بازمی‌گرداند

  • LLM پاسخ یا فراخوانی ابزار بیشتر را برمی‌گرداند

نتیجه اینکه یک مدل زبانی فقط به اندازه کلاینتی که به آن دسترسی دارد هوشمند است و یک کلاینت خوب، استفاده از ابزار را آسان می‌کند.

من استفاده از ابزارها را اولین گام واقعی برای تثبیت زنجیره تأمین هوش مصنوعی می‌دانم:

  • ارائه‌دهندگان مدل مانند OpenAI مدل‌ها را فراهم می‌کنند

  • ابرمقیاس‌هایی مانند گوگل و آمازون محیط اجرا را فراهم می‌کنند

  • فروشندگان نرم‌افزار یا SaaS کلاینت‌ها را ارائه می‌دهند (مثلاً Zed editor، LLM Studio)

  • ناشران داده مانند پایگاه‌داده‌ها و APIها زمینه و محیط داده‌ای را برای عملکرد مدل‌ها فراهم می‌کنند

در اینجا APIها و استانداردهای باز اهمیت پیدا می‌کنند و مشخص می‌شود داشتن مستندات API باکیفیت و قابل‌دسترسی چقدر مهم است.

قدردانی از Anthropic و پروتکل MCP

اینجاست که من باید از Anthropic برای انتشار پروتکل Model Context Protocol (MCP) قدردانی کنم – رابطی استاندارد برای کلاینت‌های هوش مصنوعی جهت استفاده از ابزارها و غنی‌سازی زمینه برای مدل‌های بالادستی.

با استفاده از استاندارد حمل‌ونقل باز (JSONRPC) و متن‌باز کردن تعریف پروتکل، همراه با ثبات و پذیرش گسترده OpenAPI، باید طی زمان کلاینت‌های AI بسیار قابل اتصال و بدون پیچیدگی زیاد به زمینه مورد استفاده‌شان شوند.

تعداد سرورهای MCP از زمان انتشار پروتکل به‌سرعت افزایش یافته و سیستم‌های عاملی مدرن مانند Cline به‌صورت فعال آن را در رابط‌های خود برای توسعه‌پذیری استاندارد قابلیت‌ها وارد کرده‌اند.

داشتن استانداردهای API برای تعاملات GenAI به این معنی است که – برای مثال، مدل زبانی من از فروشنده انتخابی‌ام، از طریق کلاینت دلخواهم (مثلاً بلندگوی Alexa) استفاده می‌شود، و بلندگو از Home Assistant یا Philips Hue مجهز به MCP من آگاه است و کنترل این زمینه بدون هیچ کدنویسی اضافی در بلندگو یا اپلیکیشن موبایل انجام می‌شود.

آغاز زنجیره‌ای شدن تأمین در AI

در این الگو، ارائه‌دهندگان مدل، کلاینت‌ها و سرویس‌ها می‌توانند هرکدام قابلیت‌های تخصصی رقابتی خود را ارائه دهند بدون نیاز به یکپارچگی عمیق با یکدیگر. این گامی کلیدی به‌سوی بهره‌وری واقعی و کاربرد گسترده‌تر هوش مصنوعی مولد است.

در سطحی بالاتر، دو راهبرد متفاوت توسط بازیگران بزرگ دنبال می‌شود:

  • OpenAI و Google: ایجاد پلتفرمی یکپارچه و فراگیر که همه چیز توسط راهکارهای خودشان تأمین شود

  • Anthropic: ساخت پلتفرمی ترکیب‌پذیر و زنجیره‌ابزاری که ارزش‌افزایی را به جامعه گسترده واگذار می‌کند و AI را صرفاً یک ابزار می‌بیند

نکته مهم این است: موارد استفاده برای هوش مصنوعی ساده بسیار بیشتر از موارد نیازمند AGI است.
اگر بتوانیم یک کلید برق را هوشمندتر کنیم، بدون اینکه به AGI نیاز داشته باشد (چون فقط یک کلید برق است!)، آن‌وقت هوش مصنوعی ساده خیلی سریع‌تر از AGI در صنعت و اقتصاد گسترش می‌یابد.

فکر کنید قطعات الکترونیک، کانتینرهای حمل‌ونقل، قطعات خودروی شخص ثالث – نه دستگاه‌های اپل.

پذیرش استانداردهای باز

مهم‌ترین نکته‌ای که باید منتقل شود – به‌خصوص برای توسعه‌دهندگان کلاینت‌های LLM:
استانداردهای باز را بپذیرید.
پذیرش گسترده باعث رشد بازار، تخصصی شدن و شکل‌گیری اکوسیستمی قدرتمند از قابلیت‌های مبتنی بر AI می‌شود که بهره‌وری را افزایش می‌دهد، شغل‌های نوآورانه ایجاد می‌کند و ارزش اقتصادی AI را گسترش می‌دهد.

از همه مهم‌تر، با پذیریش و حمایت از استانداردهای باز که زنجیره تأمین AI را به یک کالای رقابتی تبدیل می‌کنند، می‌توانیم در برابر انحصارسازی و روند “کالایی‌سازی گروه همراه” که موجب رکود رقابتی و قفل‌شدن کاربران در اکوسیستم‌های بسته می‌شود، مقاومت کنیم.

چنین آینده‌ای را نباید برای AI انتظار داشت. استانداردهای باز در زنجیره تأمین AI برای تضمین بنیانی محکم برای آینده پذیرش، امنیت و انتخاب مصرف‌کننده ضروری هستند.

هفت گام برای آمادگی در برابر هوش مصنوعی (AI readiness) کدامند؟
آینده APIM چگونه خواهد بود؟

دیدگاهتان را بنویسید

سبد خرید
علاقه‌مندی‌ها
مشاهدات اخیر
دسته بندی ها