Published on

آشنایی با LLMها، RAG، ایجنت‌های هوش مصنوعی، Tool Calling و Model Context Protocol (MCP) در صنعت پرداخت

نویسندگان

مقدمه

در سال‌های اخیر، پیشرفت‌های چشمگیری در حوزه‌ی هوش مصنوعی رخ داده که فضای فناوری را به شکلی بی‌سابقه دگرگون کرده است.
در کتاب «The Coming Wave» نیز به ظهور موجی از نوآوری اشاره شده که قادر است هر جنبه‌ای از زندگی و کسب‌وکار، از جمله صنعت پرداخت را متحول کند.

پنج مفهوم کلیدی که این پیشرفت‌ها را رقم زده‌اند عبارت‌اند از:

  • مدل‌های زبانی بزرگ (LLM)
  • بازیابی و تولید ترکیبی (RAG)
  • ایجنت‌های هوش مصنوعی (AI Agents)
  • فراخوانی ابزار توسط مدل (Tool Calling)
  • پروتکل Model Context Protocol (MCP)

صنعت پرداخت که طی دهه‌های گذشته از پول نقد به کارت و سپس به پرداخت دیجیتال تغییر مسیر داده، اکنون در آستانه‌ی ورود به عصری است که در آن هوشمندی و خودکارسازی نقش محوری دارند.

در این میان، Model Context Protocol (MCP) به عنوان یک استاندارد نوظهور و در حال تکامل، نقش مهمی در استانداردسازی اتصال مدل‌های زبانی به ابزارها و داده‌های خارجی ایفا می‌کند و آینده‌ی ایجنت‌های هوش مصنوعی را شکل می‌دهد.

در این مقاله به زبانی آموزشی و روان توضیح می‌دهیم که این مفاهیم چیستند، چگونه کار می‌کنند، و چه نقشی در تحول صنعت پرداخت و امور مالی دارند. همچنین با ارائه‌ی مثال‌های واقعی از شرکت‌های معتبر مانند Visa، Mastercard، Stripe و PayPal، به کاربردهای عملی این فناوری‌ها خواهیم پرداخت. در ادامه نگاهی به نمونه‌های ایرانی نیز خواهیم داشت و در پایان جمع‌بندی کوتاهی ارائه می‌کنیم.

1. مدل‌های زبانی بزرگ (LLM) چیست و چگونه کار می‌کنند؟

مدل زبانی بزرگ (LLM) یک مدل یادگیری عمیق است که روی حجم عظیمی از متون انسانی آموزش دیده تا بتواند زبان را درک کند و متون جدید تولید کند.

نقش مهندسان و توسعه‌دهندگان در پروژه‌های

ویژگی‌های LLM:

  • آموزش بر پایه داده‌های عظیم: میلیاردها کلمه از کتاب‌ها، مقالات و وب‌سایت‌ها.
  • معماری پیشرفته: معمولا مبتنی بر ترنسفورمرها برای درک توالی کلمات.
  • توانایی‌های متنوع: از تولید متن گرفته تا ترجمه، خلاصه‌سازی و پاسخ به سوالات.

مثال واقعی: استفاده Mastercard از LLM برای کشف تقلب

شرکت مسترکارت مدلی مشابه GPT توسعه داده که با یادگیری از ۱۲۵ میلیارد تراکنش، الگوهای کلاهبرداری را شناسایی می‌کند.
این مدل نرخ شناسایی کارت‌های لو رفته را دو برابر کرده و جلوی تقلب قبل از وقوع را می‌گیرد.
لینک خبر

یکی از مزایای اصلی استفاده از مدل‌های هوش مصنوعی در اپلیکیشن‌ها، ساده‌سازی فرآیند هوشمندسازی است. برخلاف تصور عموم، استفاده از این مدل‌ها نیاز به دانش پیچیده ریاضی یا درک عمیق از الگوریتم‌های هوش مصنوعی ندارد. توسعه‌دهندگان می‌توانند با استفاده از یک مدل آماده به سادگی قابلیت‌های هوشمند را به برنامه‌های خود اضافه کنند. به عنوان مثال، می‌توان از یک مدل چت‌بات برای پاسخگویی خودکار به سؤالات کاربران یا از مدل تبدیل متن به تصویر برای ایجاد تصاویر بر اساس توضیحات متنی استفاده کرد. این مدل‌ها با APIهای ساده‌ای در دسترس هستند که به راحتی می‌توان آن‌ها را در برنامه‌ها ادغام کرد.

نقش مهندسان ML، مهندسان پلتفرم و توسعه‌دهندگان اپلیکیشن

در استفاده از هوش مصنوعی و یادگیری ماشین در پروژه‌ها، نقش‌های مختلفی دخیل هستند. تصویر زیر نقش‌ها و وظایف مختلف را نشان می‌دهد:

  • مهندسان ML: مسئول آموزش مدل، تنظیم دقیق (Fine-Tuning) و استنتاج (Inference) مدل هستند.
  • مهندسان پلتفرم: زیرساخت و پلتفرم مورد نیاز برای اجرای مدل‌ها را فراهم می‌کنند.
  • توسعه‌دهندگان اپلیکیشن: از APIهای ارائه‌شده برای ادغام قابلیت‌های هوشمند در برنامه‌های خود استفاده می‌کنند.
نقش مهندسان و توسعه‌دهندگان در پروژه‌های

استنتاج مدل از طریق APIهای HTTP

در استفاده از هوش مصنوعی در اپلیکیشن‌ها، ارتباط بین برنامه و سرویس‌های مدل‌سازی بسیار حیاتی است. ارتباط با مدل‌های هوش مصنوعی از طریق APIهای HTTP شباهت زیادی به ارتباط با پایگاه‌های داده از طریق JDBC دارد؛ به این صورت که برنامه‌ها به جای اجرای کوئری‌های پایگاه داده، درخواست‌هایی را به سرویس‌های مدل‌سازی ارسال می‌کنند. تصویر زیر نشان‌دهنده چگونگی استفاده از APIهای HTTP برای استنتاج مدل و ارتباط با سرویس‌های پایگاه داده است:

استنتاج مدل از طریق APIهای HTTP

2. RAG (بازیابی و تولید ترکیبی) چیست؟

مشکل LLMها:

مدل‌های زبانی فقط اطلاعاتی را می‌دانند که هنگام آموزش دیده‌اند؛ اطلاعات جدید یا اختصاصی را نمی‌دانند.

راه‌حل: RAG

RAG (Retrieval-Augmented Generation) روشی است که مدل زبانی را به یک منبع اطلاعاتی (پایگاه داده، موتور جستجو یا ...) متصل می‌کند تا قبل از پاسخ دادن، مطالب مرتبط را بازیابی کند و بعد پاسخ بسازد.

فرآیند RAG:

  1. کاربر سوالی می‌پرسد
  2. اطلاعات مرتبط از منابع جستجو می‌شود
  3. مدل زبانی با استفاده از اطلاعات بازیابی شده پاسخ می‌دهد
نقش مهندسان و توسعه‌دهندگان در پروژه‌های

مزایای RAG:

  • دسترسی به اطلاعات به‌روز
  • کاهش خطای خیال‌پردازی مدل
  • امکان سفارشی‌سازی پاسخ‌ها با دانش داخلی

مثال واقعی: پروژه Morgan Stanley

مورگان استنلی با کمک OpenAI سیستمی ساخته که هزاران سند تحقیقاتی مالی را بازیابی می‌کند و به مشاوران مالی پاسخ‌های دقیق و استناددار ارائه می‌دهد.
لینک خبر

3. ایجنت‌های هوش مصنوعی (AI Agents) و Tool Calling چگونه کار می‌کنند؟

ایجنت هوش مصنوعی برنامه‌ای است که می‌تواند به صورت خودگردان تصمیم بگیرد و اقدام کند.
در ایجنت‌ها، مدل زبانی بزرگ (LLM) نقش «مغز متفکر» را بازی می‌کند و ابزارهای خارجی به آن کمک می‌کنند کارها را انجام دهد.
یکی از مهم‌ترین قابلیت‌های ایجنت‌ها، استفاده از Tool Calling برای دسترسی به اطلاعات و انجام عملیات است.

اجزای اصلی یک AI Agent:

  • مدل زبانی (LLM) برای درک، تصمیم‌گیری و تولید پاسخ
  • دسترسی به ابزارها و سرویس‌های خارجی
    (مثل: API جستجوی وب، ماشین حساب، بانک اطلاعاتی، سرویس‌های ایمیل، نقشه‌ها و پرداخت‌ها)
  • حلقه بازخورد و اصلاح خودکار برای بهبود مداوم عملکرد ایجنت

Tool Calling (فراخوانی ابزار توسط مدل) چیست؟

مدل‌های زبانی به تنهایی محدودیت‌هایی دارند؛ آن‌ها نمی‌توانند مستقیم به اینترنت وصل شوند یا محاسبات خاص انجام دهند.
Tool Calling راهکاری است که به مدل‌ها اجازه می‌دهد در زمان پاسخ‌گویی، به یک ابزار خارجی متصل شوند و اطلاعات لازم را دریافت یا اقدامات مشخصی را انجام دهند.

مزایای Tool Calling:

  • دسترسی به اطلاعات زنده و به‌روز
  • انجام اقدامات عملی مثل استعلام موجودی حساب یا رزرو بلیت
  • افزایش دقت و کارایی پاسخ‌ها فراتر از دانش مدل

ارتباط Tool Calling با APIها:

ایجنت‌ها برای فراخوانی ابزارها، از API استفاده می‌کنند.
مثلاً می‌توانند به یک API پرداخت، API اطلاعات آب‌وهوا، یا API مدیریت ایمیل متصل شوند تا نیاز کاربر را پاسخ دهند.

مثال‌های واقعی از ایجنت‌های هوش مصنوعی و Tool Calling

درک بهتر کاربرد ایجنت‌ها و Tool Calling با مثال‌های واقعی ساده‌تر می‌شود.
بیایید چند سناریوی واقعی را بررسی کنیم:


- یک سناریوی متداول در اپلیکیشن‌های مالی

فرض کنید شما در یک اپلیکیشن مالی، از یک چت‌بات هوشمند می‌پرسید:

«لطفا مجموع تراکش های هفته‌ی گذشته‌ام را محاسبه کن.»

در اینجا چه اتفاقی می‌افتد؟

  • مدل زبانی (LLM) درک می‌کند که نیاز به دسترسی به تراکنش‌های مالی هفته‌ی گذشته شما دارد.
  • مدل از طریق Tool Calling به API تراکنش‌های بانکی متصل می‌شود.
  • لیست تراکنش‌های شما را دریافت می‌کند.
  • مجموع تراکنش ها را محاسبه کرده و پاسخ نهایی را به صورت طبیعی به شما اعلام می‌کند.

✅ تمام این فرایند در پس‌زمینه اتفاق می‌افتد و کاربر فقط یک پاسخ دقیق و سریع دریافت می‌کند.


- دستیار هوشمند PayPal

یکی از نمونه‌های عملی و موفق استفاده از Tool Calling، دستیار PayPal Assistant است.

  • اگر از دستیار بپرسید:

    «وضعیت پرداخت فلان چیست؟»

    • دستیار به طور خودکار از طریق Tool Calling به سیستم‌های داخلی PayPal متصل می‌شود.
    • اطلاعات مربوط به تراکنش موردنظر را واکشی می‌کند.
    • به زبان طبیعی جواب می‌دهد.
  • اگر درخواست کنید:

    «آن تراکنش را به عنوان کلاهبرداری گزارش کن.»

    • دستیار ابزار مرتبط را فراخوانی می‌کند.
    • تراکنش را علامت‌گذاری و فرایند بررسی را آغاز می‌کند.

این دستیار با استفاده از هوش مصنوعی مولد (Generative AI) به مرور زمان از مکالمات کاربران یاد می‌گیرد و پاسخ‌هایش بهینه‌تر می‌شود.
مشاهده منبع


- اتصال Bard گوگل به سرویس‌های خارجی

Bard، چت‌بات گوگل، نمونه‌ی دیگری از استفاده از Tool Calling در مقیاس بزرگ است:

  • Bard می‌تواند از طریق APIهای Gmail، Google Maps و Google Docs به سرویس‌های گوگل متصل شود.
  • برای کاربر اطلاعات جستجو کند، ایمیل‌ها را بازیابی کند، مسیر‌یابی کند یا اسناد را بررسی کند.
  • این اتصال باعث می‌شود Bard بتواند وظایف پیچیده‌ای را انجام دهد که فراتر از توانایی مدل زبانی به تنهایی است.

مشاهده منبع


- تجربه‌ی Stripe با استفاده از Tool Calling

Stripe، یکی از شرکت‌های پیشرو در حوزه پرداخت آنلاین، نیز از ترکیب مدل‌های زبانی و Tool Calling استفاده می‌کند:

  • تیم پشتیبانی Stripe سیستمی ساخته که مدل زبانی می‌تواند برای پاسخ به سوالات توسعه‌دهندگان، اطلاعات حساب، یا کدهای نمونه را از پایگاه داده استخراج کند.
  • به عنوان مثال، وقتی کاربری می‌پرسد:

    «چطور API را برای انجام X تنظیم کنم؟»

    • مدل می‌تواند مستندات مرتبط را پیدا کند.
    • حتی ممکن است با فراخوانی ابزار داخلی، یک قطعه کد (snippet) آماده به کاربر بدهد.

این رویکرد باعث کاهش زمان پاسخ‌دهی و بهبود تجربه‌ی کاربری در پشتیبانی فنی شده است.


✅ همانطور که دیدیم، ترکیب مدل‌های زبانی با Tool Calling، امکانات فوق‌العاده‌ای را برای ساخت ایجنت‌های هوشمند و خودگردان فراهم کرده است. این ترکیب هم اطلاعات دقیق‌تر ارائه می‌دهد و هم توانایی انجام اقدامات واقعی را ممکن می‌سازد.

4. کاربردهای ترکیبی این فناوری‌ها در صنعت پرداخت

ترکیب LLM، RAG، AI Agents و Tool Calling توانسته صنعت پرداخت را متحول کند:

الف. کشف تقلب و امنیت مالی

  • Mastercard با مدل LLM تخصصی کشف کارت‌های سرقتی را دو برابر کرده است.
  • Visa بیش از ۵۰۰ ابزار مبتنی بر AI راه‌اندازی کرده برای مقابله با تقلب‌های پیشرفته.
    لینک خبر

ب. دستیارهای هوشمند برای مشتریان

  • دستیارهای بانک‌ها و شرکت‌های فین‌تک با ترکیب RAG و Tool Calling به مشتریان خدمات سریع‌تر و دقیق‌تر ارائه می‌دهند.
  • نمونه: PayPal Assistant، Erica بانک آمریکا

ج. ارتقاء تجربه توسعه‌دهندگان

  • Stripe از GPT-4 برای پاسخ‌گویی به سوالات فنی توسعه‌دهندگان و ارائه کدهای نمونه استفاده می‌کند.
    لینک خبر

د. مدیریت ریسک و تصمیمات اعتباری

  • مدل‌های LLM با اتصال به پایگاه‌های داده‌ی مالی، به مؤسسات کمک می‌کنند سریع‌تر و دقیق‌تر تصمیمات اعتباری بگیرند.

5. پروژه‌های نمونه در ایران

الف. دستیار هوشمند بانک ملت

بانک ملت با تأسیس «مؤسسه هوش مصنوعی و فناوری‌های شناختی»، توسعه یک دستیار هوشمند بانکی را آغاز کرده است.
این دستیار با استفاده از LLM، خدمات پشتیبانی و مشاوره را از طریق سایت و اپلیکیشن بانک ارائه می‌دهد و در آینده می‌تواند عملیات بانکی را هم انجام دهد.
لینک خبر


ب. چت‌بات هوشمند بانک ملی در پیام‌رسان بله

بانک ملی در پیام‌رسان بله دستیار هوش مصنوعی مبتنی بر ChatGPT-4o را راه‌اندازی کرده که کاربران بدون VPN می‌توانند از آن استفاده کنند.
این چت‌بات خدماتی مانند تولید محتوا، پاسخ به سوالات، ترجمه متن و حتی تولید تصویر بر اساس متن را ارائه می‌دهد.
لینک خبر


ج. دانابات – چت‌بات هوشمند فارسی

دانابات محصول مرکز تحقیقات پارت است؛ یک چت‌بات هوشمند فارسی که با استفاده از RAG و LLM بومی شده، پاسخ‌های دقیق و مستند به سؤالات پرتکرار مشتریان بانک‌ها و شرکت‌های پرداخت می‌دهد.
هدف آن کاهش حجم کاری تیم‌های پشتیبانی و ارتقاء کیفیت پاسخ‌دهی است.
لینک خبر

7. آشنایی با Model Context Protocol (MCP)

یکی از فناوری‌های نوینی که به تکمیل قابلیت‌های ایجنت‌های هوش مصنوعی و Tool Calling کمک می‌کند، Model Context Protocol (MCP) است.

MCP یک استاندارد باز است که برای اتصال مدل‌های زبانی بزرگ (LLM) به منابع داده و سرویس‌های خارجی طراحی شده است. این پروتکل نقش پلی میان مدل‌های هوش مصنوعی و دنیای بیرون را ایفا می‌کند و امکان دریافت داده‌های زنده، انجام عملیات واقعی و ارتقاء کیفیت پاسخ‌ها را فراهم می‌سازد. به بیان ساده، MCP مانند یک درگاه استاندارد عمل می‌کند که مدل‌ها می‌توانند از طریق آن به انواع پایگاه‌های داده، APIها و ابزارهای خارجی متصل شوند.

ارتباط MCP با Tool Calling و ایجنت‌های هوش مصنوعی بسیار مستقیم است. با استفاده از MCP، ایجنت‌ها می‌توانند به صورت ساخت‌یافته و ایمن به توابع خارجی دسترسی پیدا کنند و بدون نیاز به کدنویسی‌های سفارشی برای هر سرویس، ابزارها را فراخوانی کنند. این موضوع توسعه‌ی ایجنت‌های هوشمند، خودمختار و چندمرحله‌ای را بسیار ساده‌تر و سریع‌تر می‌کند.

به عنوان مثال، شرکت فین‌تکی Block (مالک Square) از MCP برای اتصال سامانه‌های هوش مصنوعی خود به پایگاه‌های دانش و ابزارهای داخلی استفاده کرده است. این کار باعث شده ایجنت‌ها بتوانند عملیات‌های مرتبط با پرداخت، پشتیبانی مشتری و تحلیل‌های مالی را به طور هوشمندانه و خودکار انجام دهند.

✅ به این ترتیب، MCP نقش مهمی در آینده‌ی ایجنت‌های هوش مصنوعی و کاربردهای عملی LLMها به ویژه در صنعت پرداخت خواهد داشت.

mcp
mcp

8. جمع‌بندی

ترکیب فناوری‌های مدل‌های زبانی بزرگ (LLM)، ایجنت‌های هوش مصنوعی (AI Agents)، بازیابی و تولید ترکیبی (RAG) و فراخوانی ابزار (Tool Calling)،
در حال متحول‌کردن دنیای پرداخت و امور مالی است.

✅ شرکت‌های بزرگ دنیا مانند Visa، Mastercard، Stripe و PayPal،
✅ و بانک‌های ایرانی مثل ملت و ملی،
با استفاده از این فناوری‌ها امنیت بالاتر، خدمات سریع‌تر، و تجربه کاربری بهتری را ارائه می‌دهند.

در سال‌های پیش رو، انتظار می‌رود این روند با شدت بیشتری ادامه یابد و تحول عمیقی در نحوه‌ی تعامل ما با خدمات مالی ایجاد کند.