هوش مصنوعی مولد در همه جا جای خودش را پیدا کرده و چه آن را دوست داشته باشید یا نه، قرار نیست جایی برود. وقتی هیاهو کمکم فروکش میکند، کاربردهای واقعی و مفیدی که دیگر زورکی جا داده نشدهاند، پدیدار خواهند شد.
در واقع همین حالا نیز این اتفاق در حال رخ دادن است، و حتی خیلی هم جدید نیست – اما کمتر دربارهاش صحبت میشود و یک قابلیت شگفتانگیز دارد:
استفاده از ابزارها: توانایی یک مدل زبانی برای اینکه بهصورت فعال تصمیم بگیرد ابزاری را که شما در اختیارش قرار دادهاید انتخاب و سپس از آن برای پاسخ به پرسش یا انجام یک کار استفاده کند.
ابزارهای نسل بعدی
مدلهای زبانی مولد بزرگ مدتهاست که این توانایی را دارند (ابتدا ChatGPT 3.5 از OpenAI و سپس Claude Sonnet 3.5، در حالی که Llama 3.1 و ۳.۲ نیز مقداری پشتیبانی دارند، اما بهکارگیری آنها پیچیده است).
نکته مهم اینجاست که میتوانیم ابزارها را در عاملهای هوش مصنوعی قرار دهیم (راهی برای ساختاربندی LLMها تا مستقل عمل کنند، گاه بهصورت گروهی، برای تکمیل یک وظیفه در طول زمان). به این معنا که میتوانید آنها را برای یک وظیفه تخصصی کنید و ابزارهای مرتبط با همان وظیفه را در اختیارشان قرار دهید: پژوهشگران (با جستجوی وب و پشتیبانی پایگاهداده)، تولیدکنندگان محتوا (با راهنماهای نوشتاری و لحن برند)، تستکنندگان (با ابزارهای تضمین کیفیت و محیطهای کدنویسی ایزوله)، برنامهریزان (با ابزارهای مدیریت پروژه)، و غیره.
استفاده از ابزارها، یک LLM را از یک گزینه جالب (اما کمی غیرقابل اعتماد) برای جستجو، به یک جزء مفید در گردشکار روزانه شما ارتقا میدهد.
مثال سادهای از استفاده ما از ابزارها در پورتال هوش مصنوعی خودمان در Tyk:
-
از آن میخواهم فهرست تیکتهای بازشده در رهگیر محصول JIRA در ۱۲ ساعت گذشته را نمایش دهد
-
مدل زبانی از ابزار JIRA ما استفاده میکند، پرسوجو را با JQL انجام میدهد و فهرستی خوانا از تیکتهای جدید ارائه میدهد
-
متوجه میشوم یکی از آن تیکتها از پشتیبانی مشتری ایجاد شده
-
از آن میخواهم بگوید کدام مشتری باعث باز شدن آن تیکت شده
-
دوباره از ابزار JIRA استفاده میکند و اطلاعات را گرفته و نام شرکت را میدهد
-
میپرسم شرکت X چه مدت است که مشتری ماست
-
بهدرستی تشخیص میدهد دو سال است مشتری ماست
-
اطلاعات بیشتری درباره مشکلشان میخواهم
-
مدل زبانی ابزار پشتیبانی مشتری را استفاده کرده، رشته مکالمه را میخواند و خلاصهای از مورد استفاده مشتری که منجر به مشکل شده ارائه میدهد
همه این کارها را میتوانستم با مرورگر انجام دهم و اگر سیستمها یکپارچه باشند تنها چند کلیک فاصله داشتم.
اما همچنان سریعتر و مستقیمتر است که از مدل بپرسم تا اینکه در ۴ سیستم مختلف با کلیدهای 2FA و ورودهای SSO نصفهنیمه، سر و کله بزنم و خودم دادهها را از دل سر و صدا بیرون بکشم.
استفاده LLMها از ابزارها یک ابرقدرت است
در پشت صحنه، این مدلها از API برای فراخوانی ابزارها استفاده میکنند و اینجاست که اهمیت APIها در موفقیت LLMها در سازمان نمایان میشود.
استفاده از ابزار توسط مدل مستقیم نیست، بلکه تفویض شده است: بهطور خاص به کاربر یا همان کلاینت گفتگو تفویض میشود:
-
کلاینت پیام را به LLM میفرستد
-
کلاینت فهرست ابزارهای موجود و پارامترها را ارسال میکند
-
LLM تصمیم میگیرد ابزار مورد نیاز را فراخوانی کند و دستور فراخوانی را بههمراه پارامترها بازمیگرداند
-
کلاینت فراخوانی ابزار را انجام میدهد و داده را به LLM بازمیگرداند
-
LLM پاسخ یا فراخوانی ابزار بیشتر را برمیگرداند
نتیجه اینکه یک مدل زبانی فقط به اندازه کلاینتی که به آن دسترسی دارد هوشمند است و یک کلاینت خوب، استفاده از ابزار را آسان میکند.
من استفاده از ابزارها را اولین گام واقعی برای تثبیت زنجیره تأمین هوش مصنوعی میدانم:
-
ارائهدهندگان مدل مانند OpenAI مدلها را فراهم میکنند
-
ابرمقیاسهایی مانند گوگل و آمازون محیط اجرا را فراهم میکنند
-
فروشندگان نرمافزار یا SaaS کلاینتها را ارائه میدهند (مثلاً Zed editor، LLM Studio)
-
ناشران داده مانند پایگاهدادهها و APIها زمینه و محیط دادهای را برای عملکرد مدلها فراهم میکنند
در اینجا APIها و استانداردهای باز اهمیت پیدا میکنند و مشخص میشود داشتن مستندات API باکیفیت و قابلدسترسی چقدر مهم است.
قدردانی از Anthropic و پروتکل MCP
اینجاست که من باید از Anthropic برای انتشار پروتکل Model Context Protocol (MCP) قدردانی کنم – رابطی استاندارد برای کلاینتهای هوش مصنوعی جهت استفاده از ابزارها و غنیسازی زمینه برای مدلهای بالادستی.
با استفاده از استاندارد حملونقل باز (JSONRPC) و متنباز کردن تعریف پروتکل، همراه با ثبات و پذیرش گسترده OpenAPI، باید طی زمان کلاینتهای AI بسیار قابل اتصال و بدون پیچیدگی زیاد به زمینه مورد استفادهشان شوند.
تعداد سرورهای MCP از زمان انتشار پروتکل بهسرعت افزایش یافته و سیستمهای عاملی مدرن مانند Cline بهصورت فعال آن را در رابطهای خود برای توسعهپذیری استاندارد قابلیتها وارد کردهاند.
داشتن استانداردهای API برای تعاملات GenAI به این معنی است که – برای مثال، مدل زبانی من از فروشنده انتخابیام، از طریق کلاینت دلخواهم (مثلاً بلندگوی Alexa) استفاده میشود، و بلندگو از Home Assistant یا Philips Hue مجهز به MCP من آگاه است و کنترل این زمینه بدون هیچ کدنویسی اضافی در بلندگو یا اپلیکیشن موبایل انجام میشود.
آغاز زنجیرهای شدن تأمین در AI
در این الگو، ارائهدهندگان مدل، کلاینتها و سرویسها میتوانند هرکدام قابلیتهای تخصصی رقابتی خود را ارائه دهند بدون نیاز به یکپارچگی عمیق با یکدیگر. این گامی کلیدی بهسوی بهرهوری واقعی و کاربرد گستردهتر هوش مصنوعی مولد است.
در سطحی بالاتر، دو راهبرد متفاوت توسط بازیگران بزرگ دنبال میشود:
-
OpenAI و Google: ایجاد پلتفرمی یکپارچه و فراگیر که همه چیز توسط راهکارهای خودشان تأمین شود
-
Anthropic: ساخت پلتفرمی ترکیبپذیر و زنجیرهابزاری که ارزشافزایی را به جامعه گسترده واگذار میکند و AI را صرفاً یک ابزار میبیند
نکته مهم این است: موارد استفاده برای هوش مصنوعی ساده بسیار بیشتر از موارد نیازمند AGI است.
اگر بتوانیم یک کلید برق را هوشمندتر کنیم، بدون اینکه به AGI نیاز داشته باشد (چون فقط یک کلید برق است!)، آنوقت هوش مصنوعی ساده خیلی سریعتر از AGI در صنعت و اقتصاد گسترش مییابد.
فکر کنید قطعات الکترونیک، کانتینرهای حملونقل، قطعات خودروی شخص ثالث – نه دستگاههای اپل.
پذیرش استانداردهای باز
مهمترین نکتهای که باید منتقل شود – بهخصوص برای توسعهدهندگان کلاینتهای LLM:
استانداردهای باز را بپذیرید.
پذیرش گسترده باعث رشد بازار، تخصصی شدن و شکلگیری اکوسیستمی قدرتمند از قابلیتهای مبتنی بر AI میشود که بهرهوری را افزایش میدهد، شغلهای نوآورانه ایجاد میکند و ارزش اقتصادی AI را گسترش میدهد.
از همه مهمتر، با پذیریش و حمایت از استانداردهای باز که زنجیره تأمین AI را به یک کالای رقابتی تبدیل میکنند، میتوانیم در برابر انحصارسازی و روند “کالاییسازی گروه همراه” که موجب رکود رقابتی و قفلشدن کاربران در اکوسیستمهای بسته میشود، مقاومت کنیم.
چنین آیندهای را نباید برای AI انتظار داشت. استانداردهای باز در زنجیره تأمین AI برای تضمین بنیانی محکم برای آینده پذیرش، امنیت و انتخاب مصرفکننده ضروری هستند.
