راهنمای کامل دوره ایجنت هوش مصنوعی گوگل و کگل: از تئوری تا تولید

آبان 25، 1404 - 05:00
 0  0
راهنمای کامل دوره ایجنت هوش مصنوعی گوگل و کگل: از تئوری تا تولید

همیشه یکی از بزرگترین چالش‌ها در دنیای هوش مصنوعی، عبور از نمونه‌های اولیه و رسیدن به سیستم‌های واقعی و کاربردی بوده است. اگر شما هم به دنبال راهی برای ساخت سیستم‌های هوشمند، مستقل و عملیاتی هستید، خبر فوق‌العاده‌ای برایتان داریم. گوگل با همکاری کگل، یک دوره ایجنت هوش مصنوعی فشرده و کاملاً رایگان برگزار کرده که دقیقاً برای همین هدف طراحی شده است. این دوره یک فرصت بی‌نظیر برای یادگیری از بهترین‌های این حوزه و تبدیل ایده‌هایتان به محصولات واقعی است.

در این مقاله، قصد داریم تمام جزئیات این دوره شگفت‌انگیز و همچنین تحلیل عمیق‌تری از اهداف استراتژیک پشت آن را با شما به اشتراک بگذاریم. در انتها نیز، به مفاهیم فنی بنیادی مانند LLM، مهندسی پرامپت و بهینه‌سازی استنتاج خواهیم پرداخت تا یک راهنمای کامل در اختیار داشته باشید.

بنر معرفی دوره ایجنت هوش مصنوعی گوگل و کگل با آموزش‌های عملی. بنر معرفی دوره ایجنت هوش مصنوعی گوگل و کگل با آموزش‌های عملی.

بخش اول: معرفی دوره ۵ روزه ایجنت‌های هوش مصنوعی

این دوره چیست و برای چه کسانی مناسب است؟

این دوره آنلاین ۵ روزه، توسط محققان و مهندسان یادگیری ماشین در گوگل طراحی شده تا به توسعه‌دهندگان کمک کند مبانی و کاربردهای عملیاتی ایجنت‌های هوش مصنوعی را کشف کنند. برخلاف بسیاری از آموزش‌ها که روی تئوری متمرکز هستند، این دوره ایجنت هوش مصنوعی شما را مستقیماً وارد عمل می‌کند. شما با اجزای اصلی یک ایجنت، از جمله مدل‌ها، ابزارها، ارکستراسیون (Orchestration)، حافظه و ارزیابی آشنا می‌شوید و در نهایت یاد می‌گیرید که چگونه این سیستم‌ها را از یک نمونه اولیه ساده به یک محصول آماده برای تولید (Production-ready) تبدیل کنید.

این دوره برای افراد زیر ایده‌آل است:

  • توسعه‌دهندگان نرم‌افزار که می‌خواهند قابلیت‌های هوش مصنوعی را به پروژه‌های خود اضافه کنند.
  • مهندسان یادگیری ماشین که به دنبال تخصص در زمینه سیستم‌های ایجنت‌محور هستند.
  • دانشجویان و علاقه‌مندان به هوش مصنوعی که می‌خواهند تجربه عملی و پروژه محور کسب کنند.

ساختار دوره و نحوه شرکت در آن چگونه است؟

کل دوره به صورت آنلاین، تعاملی و انعطاف‌پذیر طراحی شده است. شما می‌توانید با سرعت خودتان یاد بگیرید و همزمان از جلسات زنده و تعامل با جامعه بزرگ شرکت‌کنندگان بهره‌مند شوید. برای شروع، فقط به چند چیز نیاز دارید:

  1. **ساخت حساب کاربری Kaggle:** ثبت‌نام در سایت Kaggle و تأیید شماره تلفن برای دسترسی به کدلب‌ها (Codelabs) ضروری است.
  2. **ساخت حساب کاربری AI Studio:** برای دریافت کلید API و کار با مدل‌های گوگل، باید در AI Studio ثبت‌نام کنید.
  3. **پیوستن به سرور Discord:** برای پرسش و پاسخ، شبکه‌سازی و دریافت اطلاعیه‌ها، عضویت در سرور دیسکورد کگل از طریق این لینک الزامی است.

فرآیند کلی دوره شامل موارد زیر است:

  • **انتشار محتوای روزانه:** هر روز تکالیف جدید شامل مقالات تخصصی (Whitepapers)، پادکست‌های خلاصه و کدلب‌های عملی در صفحه دوره در کگل منتشر می‌شود.
  • **پخش زنده روزانه:** هر روز متخصصانی از گوگل، انویدیا و Cohere در کانال یوتیوب کگل به صورت زنده به بررسی عمیق‌تر موضوعات و پاسخ به سوالات می‌پردازند.
  • **پشتیبانی و بحث:** کانال‌های اختصاصی در دیسکورد برای پرسش و پاسخ و ارتباط با سایر شرکت‌کنندگان و مهندسان گوگل در نظر گرفته شده است.

برنامه درسی روزانه: سفری ۵ روزه به دنیای ایجنت‌ها

این دوره به صورت فشرده در ۵ روز، تمام جنبه‌های کلیدی برای ساخت ایجنت هوش مصنوعی را پوشش می‌دهد.

روز اول: مقدمه‌ای بر ایجنت‌ها و ساخت اولین سیستم

در روز اول، با مفهوم ایجنت‌های هوش مصنوعی، طبقه‌بندی قابلیت‌های آن‌ها و حلقه استدلال “درک ← برنامه‌ریزی ← عمل ← بازبینی” (Perceive → Plan → Act → Reflect) آشنا می‌شوید. در بخش عملی، اولین ایجنت خود را با استفاده از کیت توسعه ایجنت (ADK) و مدل Gemini می‌سازید و به آن قابلیت جستجو در وب را می‌دهید.

روز دوم: ابزارها و قابلیت همکاری (Interoperability)

روز دوم بر روی ابزارهای خارجی (Tools) و فراخوانی تابع (Function Calling) تمرکز دارد که به ایجنت اجازه می‌دهند کارهایی فراتر از دانش آموزشی خود انجام دهد. شما یاد می‌گیرید که چگونه توابع پایتون خود را به ابزارهایی برای ایجنت تبدیل کنید و با پروتکل زمینه مدل (MCP) برای عملیات‌های طولانی‌مدت کار کنید.

روز سوم: مهندسی زمینه (Context) و حافظه

این بخش به یکی از مهم‌ترین چالش‌ها می‌پردازد: چگونه یک ایجنت را دارای حافظه و حالت کنیم؟ شما با مفهوم مهندسی زمینه، مدیریت تاریخچه مکالمه (Session) و حافظه بلندمدت آشنا می‌شوید تا ایجنت شما بتواند مکالمات منسجم و چند مرحله‌ای داشته باشد.

ai-agent-kaggle-googleai-agent-kaggle-googleدیاگرام توضیح‌دهنده مهندسی زمینه و حافظه در دوره ایجنت هوش مصنوعی.

روز چهارم: کیفیت و ارزیابی ایجنت (Agent Quality)

یک ایجنت تا زمانی که کیفیت آن قابل سنجش نباشد، قابل اعتماد نیست. در روز چهارم، چارچوبی جامع برای ارزیابی کیفیت (Observability) ایجنت‌ها با استفاده از سه ستون اصلی: لاگ‌ها (Logs)، ردپاها (Traces) و معیارها (Metrics) معرفی می‌شود. همچنین روش‌های ارزیابی مقیاس‌پذیر مانند LLM-as-a-Judge و کار با فایل‌های تست ساختاریافته (`*.test.json`) را یاد می‌گیرید.

روز پنجم: از نمونه اولیه تا محصول نهایی (Production)

روز آخر به چالش‌های عملیاتی کردن ایجنت‌ها اختصاص دارد. شما یاد می‌گیرید که چگونه سیستم‌هایی از ایجنت‌های مستقل (Multi-agent) بسازید که با استفاده از پروتکل A2A با یکدیگر ارتباط برقرار می‌کنند. در بخش اختیاری نیز می‌توانید ایجنت خود را با Docker کانتینرسازی کرده و روی Vertex AI در Google Cloud مستقر کنید.

روز موضوع اصلی مفاهیم کلیدی خروجی عملی
**۱** مقدمه‌ای بر ایجنت‌ها ADK, Gemini, Multi-agent ساخت اولین ایجنت با قابلیت جستجو
**۲** ابزارها و همکاری Custom Tools, MCP, Function Calling ساخت ابزارهای سفارشی برای ایجنت
**۳** زمینه و حافظه Context Engineering, Sessions ساخت ایجنت با حافظه بلندمدت
**۴** کیفیت و ارزیابی Observability, LLM-as-a-Judge پیاده‌سازی لاگ و ارزیابی کیفیت
**۵** تولید و استقرار A2A Protocol, Vertex AI, Docker استقرار ایجنت روی کلاد

پروژه نهایی (Capstone Project) و مزایای تکمیل دوره

یکی از جذاب‌ترین بخش‌های این دوره، **پروژه محور کگل** است. پس از اتمام ۵ روز آموزش، شما فرصت دارید تا تمام آموخته‌های خود را در یک پروژه واقعی به کار بگیرید و ایجنت هوش مصنوعی خود را بسازید. شرکت در این پروژه اختیاری است، اما مزایای فوق‌العاده‌ای دارد:

  • **دریافت نشان (Badge) و گواهی‌نامه کگل:** با شرکت در پروژه نهایی، یک نشان و گواهی معتبر به پروفایل کگل شما اضافه می‌شود.
  • **جوایز ارزشمند:** به ۱۲ پروژه برتر جوایزی مانند محصولات کگل (Swag) اهدا شده و در شبکه‌های اجتماعی کگل معرفی می‌شوند.
  • **تقویت رزومه:** داشتن یک پروژه عملی که توسط متخصصان گوگل ارزیابی شده، یک امتیاز بزرگ برای رزومه شما محسوب می‌شود.

این دوره یک فرصت استثنایی برای یادگیری عمیق و عملی در یکی از داغ‌ترین حوزه‌های فناوری است. اگر می‌خواهید از یک مصرف‌کننده هوش مصنوعی به یک سازنده تبدیل شوید، این دوره نقطه شروعی عالی برای شماست.

بخش دوم: تحلیل عمیق‌تر – ۵ حقیقت استراتژیک پشت این دوره «رایگان»

گوگل و Kaggle با دوره‌های قبلی خود بیش از ۴۲۰,۰۰۰ شرکت‌کننده جذب کرده‌اند. اما وقتی یک غول فناوری چنین منبع آموزشی گسترده‌ای را به صورت «رایگان» ارائه می‌دهد، سؤال استراتژیک‌تری مطرح می‌شود: گوگل واقعاً چه چیزی را به این مخاطب عظیم جهانی آموزش می‌دهد؟ این دوره فراتر از یک اقدام ترویجی صرف است؛ این یک سرمایه‌گذاری حساب‌شده برای ساختن اکوسیستم، استانداردسازی پروتکل‌ها و ایجاد یک کانال استعدادیابی جهانی است.

۱. این یک بازی استراتژیک برای تسلط بر اکوسیستم است

این دوره یک ابزار استراتژیک برای تثبیت سلطه گوگل در حوزه هوش مصنوعی عامل-محور (Agentic AI) است. برنامه درسی با دقت طراحی شده تا پذیرش مجموعه فناوری‌های اختصاصی گوگل را ترویج دهد. مؤلفه‌های کلیدی که آموزش داده می‌شوند عبارتند از:

  • **کیت توسعه عامل (ADK):** پلتفرم استاندارد گوگل برای مدیریت چرخه عمر عامل‌ها.
  • **پروتکل زمینه مدل (MCP):** استاندارد گوگل برای تضمین قابلیت همکاری بین عامل‌ها و ابزارها.
  • **پروتکل عامل به عامل (A2A):** چارچوب همکاری بین چندین عامل تخصصی.

هدف نهایی، «وابسته‌سازی اکوسیستم توسعه‌دهندگان» (Developer Ecosystem Lock-in) است. با آموزش صدها هزار توسعه‌دهنده بر روی این ابزارها، گوگل یک استخر استعداد عظیم ایجاد می‌کند که منحصراً با پشته فناوری این شرکت مهارت دارند.

۲. تغییر تمرکز از هوش مصنوعی «عمومی» به «عامل-محور»

این دوره نشان‌دهنده یک تغییر تهاجمی در تمرکز صنعت از هوش مصنوعی مولد عمومی به ایجنت‌های تخصصی است. مقایسه این دوره با نسخه‌های قبلی، این تغییر استراتژیک را نشان می‌دهد:

تکرار دوره تمرکز موضوعات کلیدی
دوره فشرده GenAI (قبلی) هوش مصنوعی مولد گسترده مدل‌های پایه‌ای، Embeddingها، MLOps
دوره فشرده AI Agents (فعلی) هوش مصنوعی عامل-محور تخصصی معماری‌های ایجنت، ابزارها، سیستم‌های A2A

این تغییر نشان می‌دهد که گوگل باور دارد آینده توسعه هوش مصنوعی در ساخت سیستم‌های خودمختار و عامل-محور نهفته است.

۳. «رایگان» یعنی تست بتا در مقیاس انبوه

ارائه رایگان این دوره دو هدف استراتژیک دارد. اول، مدیریت منابع؛ الزام به «تأیید تلفنی» یک مکانیسم هوشمندانه برای فیلتر کردن کاربران غیرجدی و محافظت از سرمایه‌گذاری عظیم گوگل در منابع محاسباتی رایگان است.

دوم، این دوره به عنوان یک «محیط تست توزیع‌شده و عظیم» عمل می‌کند. صدها هزار کاربر به طور همزمان در حال تست استرس جدیدترین ابزارهای گوگل (مانند ADK، MCP و SDK یکپارچه google-genai) قبل از عرضه تجاری کامل آن‌ها هستند. این رویکرد داده‌های استفاده واقعی و ارزشمندی را در مقیاسی فراهم می‌کند که ریسک پذیرش سازمانی را برای گوگل به شدت کاهش می‌دهد.

۴. تمرکز بر MLOps: تربیت متخصصان آماده تولید

برنامه درسی، به‌ویژه در روز چهارم (کیفیت و ارزیابی)، عمیقاً بر تضمین کیفیت در سطح سازمانی (MLOps) تمرکز دارد. شرکت‌کنندگان مهارت‌های عملی و ضروری مانند «مشاهده‌پذیری ایجنت» (Agent Observability) برای بازرسی و اشکال‌زدایی فرآیندهای استدلال، و همچنین انجام تست‌های ساختاریافته و تکرارپذیر با فایل‌هایی مانند `*.test.json` و `*.evalset.json` را می‌آموزند. این دوره متخصصانی می‌سازد که می‌توانند سیستم‌های قابل اعتماد و مقیاس‌پذیر بسازند، نه فقط نمونه‌های اولیه.

۵. قیف فروش: از Kaggle به Google Cloud

قیف فروش گوگل کاملاً شفاف است. مسیر یادگیری رایگان در Kaggle مستقیماً به پلتفرم تجاری Google Cloud ختم می‌شود. این مسیر به وضوح در روز پنجم ترسیم شده است:

  1. **مرحله ۱:** توسعه نمونه اولیه در محیط رایگان نوت‌بوک‌های Kaggle.
  2. **مرحله ۲:** یادگیری کانتینرسازی راه‌حل‌ها با استفاده از Docker.
  3. **مرحله ۳:** گام نهایی و استراتژیک، مقیاس‌بندی راه‌حل در پلتفرم سازمانی Vertex AI گوگل.

این ساختار یک قیف عمدی است که برای تسریع پذیرش سازمانی خدمات Google Cloud طراحی شده است. این دوره همان‌قدر که یک کلاس درس در هوش مصنوعی است، یک کلاس درس استادانه در توسعه استراتژیک بازار نیز محسوب می‌شود.

خلاقیت خود را به سطح بالاتری ببرید!

این‌ها فقط چند نمونه بودند! برای دسترسی به گنجینه‌ای از پرامپت‌های خلاقانه و کمیاب و دیدن صدها نمونه تصویر دیگر برای Gemini، Midjourney و سایر ابزارها، به کانال تلگرام «هوشیوز» بپیوندید. عضویت فوری در کانال تلگرام هوشیوز

بخش سوم: ضمیمه‌های فنی

برای درک کامل فناوری‌های مورد بحث در این دوره، در ادامه به مفاهیم بنیادی می‌پردازیم.

ضمیمه الف: مدل‌های زبان بزرگ (LLM) چگونه کار می‌کنند؟

به زبان ساده، یک مدل زبان بزرگ (LLM) یک سیستم هوش مصنوعی پیشرفته است که در پردازش، درک و تولید متن شبه‌انسان تخصص دارد. این سیستم‌ها بر روی حجم عظیمی از داده‌های متنی آموزش می‌بینند. کاربردهای آن‌ها شامل ترجمه، خلاصه‌سازی و پاسخ به پرسش است.

۱. موتور محرک: معماری ترنسفورمر (Transformer)

قبل از ترنسفورمرها، مدل‌هایی مانند RNNها داده‌ها را به صورت ترتیبی (کلمه به کلمه) پردازش می‌کردند که کند بود. معماری ترنسفورمر (معرفی شده در سال ۲۰۱۷) با پردازش **موازی** تمام کلمات به صورت همزمان، این مشکل را حل کرد. جزء جادویی آن، مکانیزم **«خود-توجهی» (Self-Attention)** است. این مکانیزم به مدل اجازه می‌دهد تا اهمیت کلمات مختلف را در یک جمله نسبت به یکدیگر بسنجد و زمینه را درک کند. برای مثال، در جمله “ببر از درختی پایین پرید چون تشنه بود”، «توجه» به مدل کمک می‌کند بفهمد که ضمیر “او” (it) به “ببر” اشاره دارد نه “درخت”.

۲. آموزش در مقابل استنتاج (Training vs. Inference)

چرخه حیات یک LLM دو مرحله دارد:

مرحله توضیح
**آموزش (Training)** فرآیند پرهزینه و زمان‌بر که در آن پارامترهای مدل با استفاده از مجموعه داده‌های عظیم تنظیم می‌شوند. هدف، به حداقل رساندن خطا در پیش‌بینی کلمه بعدی است.
**استنتاج (Inference)** مرحله‌ای که کاربر نهایی با آن تعامل دارد. پارامترهای مدل “ثابت” هستند و مدل از دانش خود برای تولید پاسخ به ورودی‌های جدید استفاده می‌کند.

۳. سفارشی‌سازی: قدرت تنظیم دقیق (Fine-Tuning)

یک مدل از پیش آموزش‌دیده (Pre-trained) مانند یک “متخصص عمومی” است. برای تبدیل آن به “متخصص ویژه” (مثلاً برای پاسخ به سوالات پزشکی)، از تنظیم دقیق استفاده می‌کنیم. این کار با استفاده از مجموعه داده‌های کوچک‌تر اما باکیفیت‌تر انجام می‌شود.

  • **تنظیم دقیق نظارت‌شده (SFT):** آموزش مدل از طریق مثال‌های باکیفیت (جفت‌های پرامپت-پاسخ).
  • **یادگیری تقویتی از بازخورد انسانی (RLHF):** آموزش یک “مدل پاداش” بر اساس رتبه‌بندی انسان‌ها از پاسخ‌های مختلف، تا مدل یاد بگیرد پاسخ‌های مفیدتر و ایمن‌تری تولید کند.
  • **تنظیم دقیق با پارامتر بهینه (PEFT):** یک رویکرد کم‌هزینه‌تر که به جای تغییر تمام پارامترها، فقط بخش کوچکی از آن‌ها را آموزش می‌دهد.

ضمیمه ب: مهندسی پرامپت – راهنمای هدایت هوش مصنوعی

مهندسی پرامپت (Prompt Engineering) فرآیند طراحی ورودی‌های باکیفیت برای هدایت LLMها به سمت تولید خروجی‌های دقیق و مطلوب است.

۱. پیکربندی خروجی: کنترل خلاقیت

علاوه بر متن پرامپت، می‌توانید پارامترها را تنظیم کنید:

  • **Temperature (دما):** میزان تصادفی بودن. دمای پایین (مثلاً 0.1) برای پاسخ‌های قطعی و مبتنی بر واقعیت مناسب است. دمای بالا (مثلاً 0.9) برای کارهای خلاقانه (مانند داستان‌نویسی) کاربرد دارد.
  • **Top-K / Top-P:** روش‌هایی برای محدود کردن انتخاب‌های مدل فقط به محتمل‌ترین توکن‌ها، تا از تولید کلمات عجیب و غریب جلوگیری شود.

۲. تکنیک‌های اصلی پرامپت‌نویسی

  • **پرامپتینگ Zero-Shot (شات-صفر):** ساده‌ترین رویکرد که تنها شامل توصیف وظیفه بدون هیچ مثالی می‌شود. (مثال: «این متن را به فارسی ترجمه کن.»)
  • **پرامپتینگ Few-Shot (شات-چندگانه):** ارائه چندین مثال به مدل تا الگو و ساختار خروجی مورد نظر (مثلاً فرمت JSON) را یاد بگیرد.
  • **پرامپتینگ نقش (Role Prompting):** اختصاص دادن یک شخصیت یا هویت خاص به مدل. (مثال: «تو یک راهنمای تور در اصفهان هستی. سه مکان را پیشنهاد بده.»)
  • **زنجیره فکر (Chain of Thought – CoT):** واداشتن مدل به تولید مراحل استدلال میانی (گام به گام فکر کردن) قبل از ارائه پاسخ نهایی. این کار دقت را در مسائل پیچیده افزایش می‌دهد.

ضمیمه ج: بهینه‌سازی استنتاج – چالش استراتژیک اجرای LLM‌ها

استنتاج (تولید خروجی) در LLM‌ها بسیار پرهزینه است. بهینه‌سازی این فرآیند یک ضرورت استراتژیک برای مهار هزینه‌های عملیاتی است. این کار نیازمند مدیریت توازن‌های کلیدی است.

۱. توازن‌های استراتژیک اصلی

  • **کیفیت در برابر تأخیر/هزینه:** پذیرش کاهش جزئی در دقت مدل (مثلاً استفاده از مدل کوچک‌تر) می‌تواند به بهبود قابل توجهی در سرعت و هزینه منجر شود.
  • **تأخیر در برابر توان عملیاتی (هزینه):** در کاربردهای تعاملی (چت‌بات) «تأخیر کم» اولویت دارد. در پردازش دسته‌ای (آفلاین) «توان عملیاتی بالا» (هزینه کمتر به ازای هر درخواست) مهم‌تر است.

۲. طبقه‌بندی استراتژی‌های بهینه‌سازی

تکنیک‌های بهینه‌سازی به دو دسته اصلی تقسیم می‌شوند:

نوع روش توضیح مثال‌ها
**۱. تقریب‌زننده خروجی** با ایجاد تغییرات جزئی در محاسبات، سرعت را افزایش می‌دهند. ممکن است بر خروجی نهایی تأثیر بگذارند (کاهش جزئی کیفیت). **کوانتیزاسیون (Quantization):** کاهش دقت عددی وزن‌ها (مثلاً از ۳۲ بیت به ۸ بیت) برای کاهش مصرف حافظه و تسریع محاسبات.
**تقطیر (Distillation):** آموزش یک مدل کوچک‌تر (دانش‌آموز) برای تقلید رفتار یک مدل بزرگ‌تر (معلم).
**۲. حافظ خروجی** تضمین می‌کنند که خروجی مدل بدون هیچ تغییری باقی می‌ماند (از نظر کیفیت خنثی هستند). **Flash Attention:** الگوریتمی بهینه‌تر برای محاسبه «توجه» که جابجایی داده بین حافظه‌ها را به حداقل می‌رساند.
**رمزگشایی گمانه‌زنانه (Speculative Decoding):** استفاده از یک مدل «پیش‌نویس» کوچک و سریع برای پیش‌بینی چندین توکن، و سپس تأیید دسته‌ای آن‌ها توسط مدل بزرگ اصلی.
**دسته‌بندی (Batching):** پردازش همزمان چندین درخواست برای استفاده بهتر از سخت‌افزار.

انتخاب استراتژی بهینه‌سازی به پروفایل مورد استفاده بستگی دارد: اپلیکیشن‌های تعاملی به روش‌های حافظ خروجی (مانند رمزگشایی گمانه‌زنانه) نیاز دارند، در حالی که پردازش‌های دسته‌ای می‌توانند از روش‌های تقریب‌زننده (مانند کوانتیزاسیون) بهره ببرند.

منبع اصلی دوره: Kaggle

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0