46083

فشرده‌شدن بلوغ فناوری در عصر هوش مصنوعی به چه معناست؟

فشرده‌شدن بلوغ فناوری در عصر هوش مصنوعی (The Compression of Tech Maturity in the Age of AI)

فناوری در گذشته معمولاً چندین دهه طول می‌کشید تا توسعه یابد و به بلوغ برسد. اما در عصر هوش مصنوعی، این بازه زمانی به‌شدت فشرده شده است. امروز، کریستوفر ساندووال توضیح می‌دهد که چرا باید در استفاده از هوش مصنوعی در شکل فعلی آن محتاط بود.

هر فناوری به‌طور طبیعی فرآیند بلوغ خود را طی می‌کند. بدون توجه به نوع فناوری یا گستره کاربرد آن، هر اختراع جدید به‌طور طبیعی چرخه‌ای از توسعه اولیه تا بلوغ و سپس حرکت به‌سوی منسوخ‌شدن را پشت سر می‌گذارد.

با این حال، هوش مصنوعی و مدل‌های زبانی بزرگ یک چالش جالب ارائه می‌کنند. آن‌چه پیش‌تر چندین دهه زمان می‌برد تا توسعه یافته و بالغ شود، اکنون طی چند ماه مورد استفاده گسترده قرار گرفته است. هوش مصنوعی به شکلی انفجاری در کاربرد و پذیرش رشد کرده که هیچ‌کس قادر به پیش‌بینی آن نبود. در حالی که این فناوری بسیار امیدبخش است، چرخه بلوغ فشرده‌ آن دلیل موجهی برای نگرانی ایجاد می‌کند.

در ادامه، به این مسئله بلوغ فناوری می‌پردازیم و چند مثال مشخص ارائه می‌کنیم که نشان می‌دهد این موضوع چگونه باعث بروز ریسک در بازار شده است.

مدلی برای بلوغ فناوری

پیش از آن‌که بتوانیم مشکلِ فشرده‌شدن بلوغ فناوری را بررسی کنیم، ابتدا باید تعریف کنیم که بلوغ فناوری چگونه به نظر می‌رسد. به‌طور کلی، تکامل فناوری را می‌توان به‌عنوان فرآیندی توصیف کرد که طی چند مرحله متمایز رخ می‌دهد.

tech maturity 1

در مرحله معرفی، معمولاً ویژگی‌های پایه‌ای فناوری شکل می‌گیرد که آن را برای پذیرش جذاب می‌کند. این مرحله زمانی است که نوآوران و پذیرندگان اولیه، فناوری جدید را با امید به ایجاد تحول و نوآوری می‌پذیرند. فناوری در این مرحله کامل نیست — در بسیاری از موارد تنها ابتدایی‌ترین شکل راه‌حل را ارائه می‌کند — اما در عین حال وعده کافی برای جذب توجه دارد.

در مرحله بعد، رشد محصول اولیه را مشاهده می‌کنیم. در این مرحله، پذیرندگان اولیه باعث گسترش بیشتر پذیرش می‌شوند و با تکامل فناوری، شاهد ایجاد جذابیت در بازار انبوه و نوآوری‌های بیشتر هستیم. فناوری در این مرحله به‌سمت استاندارد شدن حرکت می‌کند و امکان تکرار و تکامل فراهم می‌شود و تجربه‌ای پایدار اما در حال بهبود برای پذیرندگان اولیه ارائه می‌دهد.

سپس فناوری وارد مرحله بلوغ می‌شود. مرحله بلوغ زمانی است که فناوری به توسعه‌های نهایی خود می‌رسد؛ جایی که تجربیات جدید و نوآورانه جای خود را به راه‌حل‌های پایدار و فراگیر می‌دهند. در این مرحله، اکثریت دیرهنگام کاربران به فناوری می‌پیوندند و محصولات مبتنی بر آن تقریباً به وضعیت همه‌گیر می‌رسند.

در نهایت، فناوری وارد مرحله افول آهسته می‌شود. در این مرحله، مشکلات فناوری شروع می‌کنند به سنگین‌تر شدن نسبت به مزایای آن و این امر موجب شکل‌گیری نوآوری‌ها، تکرارها و توسعه‌های جدید می‌شود. در این مرحله، عقب‌مانده‌ها معمولاً با قیمت پایین وارد فناوری می‌شوند اما فایده آن به‌شدت کاهش یافته است.

نکته مهم این است که این الگو را می‌توان در طیف وسیعی از فناوری‌ها — از کشاورزی گرفته تا هواپیماهای جت — مشاهده کرد. نکته کلیدی درک این الگو و ارتباط آن با منحنی زنگوله‌ای پذیرش است. بخش عمده پذیرش فناوری در مراحل رشد و بلوغ رخ می‌دهد، زمانی که فناوری برای استفاده گسترده آماده می‌شود.

به‌عنوان مثال، می‌توان به نحوه توسعه اینترنت در طول زمان نگاه کرد. در مثال زیر، اینترنت و وب جهانی به‌عنوان یک موضوع یکپارچه در نظر گرفته می‌شوند، زیرا از دید کاربر نهایی، محصولی مکمل هستند، هرچند از نظر فنی تفاوت‌هایی دارند.

tech maturity 2

این چرخه زمانی جالب‌تر می‌شود که فشار ناشی از پذیرش را در نظر بگیریم. در طول هر مرحله، پذیرش همراه با ریسک‌ها و مزایای خاصی است. اگر خیلی زود پذیرش کنید، ممکن است از فناوری‌ای تحول‌آفرین پیش از همه رقبا استفاده کنید و مزایای بزرگی کسب کنید. از سوی دیگر، اگر خیلی دیر پذیرش کنید، ممکن است از فناوری‌ای استفاده کنید که دیگر منسوخ شده در حالی که رقبا به سراغ بهترین راه‌حل جدید رفته‌اند.

tech maturity 3

این وضعیت نوعی فشار در چرخه فناوری ایجاد می‌کند. این یکی از دلایلی است که باعث می‌شود اغلب شاهد هیجان و توجه زیاد در الگوهای قابل پیش‌بینی باشیم، به‌ویژه زمانی که اکثریت اولیه شروع می‌کنند به کسب نتایج ملموس از سرمایه‌گذاری خود.

مشکل بلوغ هوش مصنوعی

هوش مصنوعی افزایش شگفت‌انگیزی در پذیرش تجربه کرده است. برخلاف چرخه توسعه معمول که در آن محصول معمولاً در اواخر مرحله رشد یا اوایل بلوغ به بیشترین تعداد کاربران می‌رسد، هوش مصنوعی حتی در مراحل بسیار ابتدایی، شاهد انفجار در استفاده بوده است.

یک مثال روشن از این روند، ChatGPT از OpenAI است. براساس گزارش Netscribes، ChatGPT تنها در دو ماه به نخستین ۱۰۰ میلیون کاربر خود رسید. در مقایسه با فناوری‌های روزمره دیگر، این موضوع کاملاً خارق‌العاده است. حتی TikTok، با وجود داشتن یک پایگاه کاربری آماده پس از تعطیلی Vine و Musical.ly، نه ماه طول کشید تا به ۱۰۰ میلیون کاربر برسد. رقیب سریع دیگر اینستاگرام بود که دو و نیم سال زمان برد تا به این سطح برسد. نمونه‌ای متداول‌تر اسپاتیفای است که ۱۱ سال طول کشید و چندین نسخه از محصول را پشت سر گذاشت تا به رکورد ۱۰۰ میلیون کاربر برسد.

به بیان ساده، تعداد بسیار کمی از فناوری‌ها چنین رشد سریعی در دیده‌شدن و جذب کاربر داشته‌اند. به‌دلیل همین فشرده‌شدن چرخه بلوغ و مسیر جذب کاربر، ما شاهد پذیرش گسترده هوش مصنوعی هستیم، حتی اگر این فناوری هنوز در مراحل اولیه خود باشد.

tech maturity 4

هوش مصنوعی اکنون در چه مرحله‌ای است؟

برای برخی، این‌که گفته شود هوش مصنوعی هنوز در مرحله نسبتاً ابتدایی قرار دارد ممکن است گزاره‌ای قوی به‌نظر برسد. واقعیت این است که هوش مصنوعی، با وجود امیدبخشی، هنوز شکاف‌های بسیاری در توسعه و قابلیت‌ها دارد و فاصله زیادی تا یک فناوری بالغ دارد. برای روشن‌تر شدن موضوع، به وضعیت فعلی مدل‌های هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ (LLMها)، نگاه می‌کنیم.

هوش مصنوعی در چه زمینه‌هایی عملکرد عالی دارد؟

هوش مصنوعی در شکل فعلی خود اساساً یک مدل پیش‌بینی‌کننده است. LLMها طوری طراحی شده‌اند که یک کلمه یا جمله را دریافت کرده و محتمل‌ترین خروجی را بر اساس مجموعه داده‌های خود ایجاد کنند. این امر باعث ایجاد سیستمی شده که عملکرد خوبی دارد — البته تا زمانی که مجموعه داده کافی برای ارائه زمینه وجود داشته باشد.

بنابراین، AI در موارد زیر بسیار خوب عمل می‌کند:

  • تشخیص الگو

  • کشف روندها و زمینه‌ها در مقیاس بالا

  • طبقه‌بندی محتوا، خلاصه‌سازی و مقایسه

  • تولید متن و تصاویر بر اساس محتواهای قبلی

اما نکته کلیدی این است که این توانایی‌ها به‌شدت به زمینه وابسته‌اند، و کیفیت این زمینه کاملاً به کیفیت داده‌هایی بستگی دارد که مدل با آن‌ها آموزش دیده است.

هوش مصنوعی در چه زمینه‌هایی عملکرد ضعیفی دارد؟

به همین دلیل، مدل‌های فعلی در وظایفی که داده یا زمینه کافی ندارند، ضعف قابل‌توجهی دارند. تولید بدون راهنمایی می‌تواند بسیار دشوار باشد. هرچند تکنیک‌هایی مانند یادگیری صفر-نمونه پیشرفت‌هایی داشته‌اند، اما همچنان به داده‌هایی نیاز دارند که از نظر موضوعی به مسئله اصلی نزدیک باشند.

نمونه روشن این مشکل را می‌توان در تولید تصاویر انسانی مشاهده کرد. اگر از هوش مصنوعی بخواهید یک دست انسان تولید کند، خروجی ممکن است در ظاهر درست باشد — یک اندام انسانی با پوست و چند انگشت — اما با نگاه دقیق‌تر، اغلب موارد زیر دیده می‌شود:

  • انگشت‌های اضافه

  • پرسپکتیوهای اشتباه

  • بافت‌های عجیب

  • اشکالات ناشی از تلاش مدل برای بازتولید یک مفهوم مبهم

هوش مصنوعی همچنین در موارد زیر ضعف دارد:

  • تصمیم‌گیری‌های مبهم

  • استنتاج و منطق پیچیده

  • مباحث اخلاقی و فلسفی

  • مواردی که «پاسخ درست» مشخصی ندارند

در چه مواردی به‌طور جدی مشکل دارد؟

در نهایت، مواردی وجود دارند که هوش مصنوعی شدیداً با آن‌ها دست‌وپنجه نرم می‌کند:

  • شفافیت و انطباق نظارتی (مثلاً با GDPR)

  • مشکل نشت داده‌ها در فرآیند آموزش مجدد مداوم

  • توهم یا تولید اطلاعات نادرست با اعتماد کامل

  • آلودگی داده‌های آموزشی و حملات مبتنی بر داده

  • آسیب‌پذیری‌های امنیتی در سطح معماری مدل

مدل‌های زبانی بزرگ حتی به‌حدی آسیب‌پذیرند که طی سال‌های اخیر یک «OWASP Top 10» اختصاصی برای آن‌ها تدوین شده است.

واقعیت هوش مصنوعی

اگرچه پذیرش هوش مصنوعی مانند یک فناوری بالغ است، اما در عمل هنوز بالغ نیست. این بدان معنا نیست که نباید از آن استفاده کرد — بلکه باید از آن به‌صورت آگاهانه و هدفمند استفاده کرد.

به شکل ساده:

چند درصد از رانندگان می‌توانند به‌طور ساده توضیح دهند بنزین چیست؟ بسیاری.

اما چند درصد کاربران ChatGPT می‌توانند مفهوم «zero-shot learning» را توضیح دهند؟ بسیار کم.

یک مطالعه موردی

این مشکلات صرفاً نظری نیستند. به یک نمونه واقعی نگاه کنیم.

در وضعیت فعلی، هوش مصنوعی به‌طور گسترده برای تولید کدهای پایه و کدهای تکراری استفاده می‌شود، و برخی مدیران کسب‌وکار حتی مطرح کرده‌اند که AI می‌تواند بخش زیادی از فضای توسعه نرم‌افزار را جایگزین کند.

اما واقعیت فعلی هوش مصنوعی از این ادعاها پشتیبانی نمی‌کند، حتی اگر بازار طوری رفتار کند که انگار این فناوری کاملاً بالغ است.

نمونه عالی این مشکل را می‌توان در کار «بار لانیادو»، پژوهشگر امنیتی در Lasso Security مشاهده کرد. او با استفاده از یک روش نوآورانه، دقیقاً از همین فشردگی تکنولوژیک استفاده کرد تا یک آسیب‌پذیری عظیم را در مدل‌های زبانی بزرگ پیدا کند.

روند کار به این شکل بود:

  1. آن‌ها از مدل خواستند فهرستی از پرسش‌های رایج برنامه‌نویسی تولید کند.

  2. مدل در مواردی پکیج‌هایی را پیشنهاد داد که اصلاً وجود خارجی نداشتند.

  3. تیم این پکیج‌های خیالی را با نسخه‌های واقعی اما مخرب در مخازن اینترنتی ساخت.

  4. از آن پس، هر زمان مدل دچار «توهم» می‌شد و این نام‌ها را پیشنهاد می‌کرد، کاربران آن را جست‌وجو کرده و نسخه مخرب واقعی را پیدا می‌کردند.

این پکیج‌ها برای پژوهش ساخته شده بودند — نه برای آسیب واقعی.

اما سوال اصلی این است:

اگر یک شرکت بزرگ از مدل استفاده می‌کرد و یکی از این پکیج‌های مخرب را نصب می‌کرد، چه؟

آیا تیم توسعه حتی متوجه می‌شد؟

نتیجه‌گیری: در استفاده از هوش مصنوعی احتیاط کنید

این مقاله برای این نوشته نشده که بگوید نباید از LLMها و هوش مصنوعی استفاده کرد — برعکس.

این فناوری‌ها خارق‌العاده هستند و می‌توانند تاثیرات عظیمی بر توسعه، بهبود و کیفیت سیستم‌ها داشته باشند.

اما نکته اصلی این است:

  • هوش مصنوعی آن‌قدر که به‌نظر می‌رسد بالغ نیست

  • پذیرش سریع آن، بیش از حد جلوتر از توسعه واقعی آن است

  • استفاده بی‌محابا می‌تواند خطرهای بزرگی ایجاد کند

این فناوری در آینده مانند اینستاگرام یا اسپاتیفای همه‌جا خواهد بود.

اما فعلاً، احتیاط ضروری‌ترین رویکرد است.

توجه ویژه به جزئیات و سطح بالایی از دقت لازم است تا از آسیب‌های بالقوه در مقیاسی که به‌سادگی قابل جبران نیست جلوگیری شود.

چگونه API‌هایی برای واقعیت هوش مصنوعی (Reality of AI) بسازیم؟
آیا SDKها هنوز در عصر هوش مصنوعی مورد استفاده و مرتبط هستند؟

دیدگاهتان را بنویسید

سبد خرید
علاقه‌مندی‌ها
مشاهدات اخیر
دسته بندی ها