راهنمای کامل دوره ایجنت هوش مصنوعی گوگل و کگل: از تئوری تا تولید
همیشه یکی از بزرگترین چالشها در دنیای هوش مصنوعی، عبور از نمونههای اولیه و رسیدن به سیستمهای واقعی و کاربردی بوده است. اگر شما هم به دنبال راهی برای ساخت سیستمهای هوشمند، مستقل و عملیاتی هستید، خبر فوقالعادهای برایتان داریم. گوگل با همکاری کگل، یک دوره ایجنت هوش مصنوعی فشرده و کاملاً رایگان برگزار کرده که دقیقاً برای همین هدف طراحی شده است. این دوره یک فرصت بینظیر برای یادگیری از بهترینهای این حوزه و تبدیل ایدههایتان به محصولات واقعی است.
در این مقاله، قصد داریم تمام جزئیات این دوره شگفتانگیز و همچنین تحلیل عمیقتری از اهداف استراتژیک پشت آن را با شما به اشتراک بگذاریم. در انتها نیز، به مفاهیم فنی بنیادی مانند LLM، مهندسی پرامپت و بهینهسازی استنتاج خواهیم پرداخت تا یک راهنمای کامل در اختیار داشته باشید.
بخش اول: معرفی دوره ۵ روزه ایجنتهای هوش مصنوعی
این دوره چیست و برای چه کسانی مناسب است؟
این دوره آنلاین ۵ روزه، توسط محققان و مهندسان یادگیری ماشین در گوگل طراحی شده تا به توسعهدهندگان کمک کند مبانی و کاربردهای عملیاتی ایجنتهای هوش مصنوعی را کشف کنند. برخلاف بسیاری از آموزشها که روی تئوری متمرکز هستند، این دوره ایجنت هوش مصنوعی شما را مستقیماً وارد عمل میکند. شما با اجزای اصلی یک ایجنت، از جمله مدلها، ابزارها، ارکستراسیون (Orchestration)، حافظه و ارزیابی آشنا میشوید و در نهایت یاد میگیرید که چگونه این سیستمها را از یک نمونه اولیه ساده به یک محصول آماده برای تولید (Production-ready) تبدیل کنید.
این دوره برای افراد زیر ایدهآل است:
- توسعهدهندگان نرمافزار که میخواهند قابلیتهای هوش مصنوعی را به پروژههای خود اضافه کنند.
- مهندسان یادگیری ماشین که به دنبال تخصص در زمینه سیستمهای ایجنتمحور هستند.
- دانشجویان و علاقهمندان به هوش مصنوعی که میخواهند تجربه عملی و پروژه محور کسب کنند.
ساختار دوره و نحوه شرکت در آن چگونه است؟
کل دوره به صورت آنلاین، تعاملی و انعطافپذیر طراحی شده است. شما میتوانید با سرعت خودتان یاد بگیرید و همزمان از جلسات زنده و تعامل با جامعه بزرگ شرکتکنندگان بهرهمند شوید. برای شروع، فقط به چند چیز نیاز دارید:
- **ساخت حساب کاربری Kaggle:** ثبتنام در سایت Kaggle و تأیید شماره تلفن برای دسترسی به کدلبها (Codelabs) ضروری است.
- **ساخت حساب کاربری AI Studio:** برای دریافت کلید API و کار با مدلهای گوگل، باید در AI Studio ثبتنام کنید.
- **پیوستن به سرور Discord:** برای پرسش و پاسخ، شبکهسازی و دریافت اطلاعیهها، عضویت در سرور دیسکورد کگل از طریق این لینک الزامی است.
فرآیند کلی دوره شامل موارد زیر است:
- **انتشار محتوای روزانه:** هر روز تکالیف جدید شامل مقالات تخصصی (Whitepapers)، پادکستهای خلاصه و کدلبهای عملی در صفحه دوره در کگل منتشر میشود.
- **پخش زنده روزانه:** هر روز متخصصانی از گوگل، انویدیا و Cohere در کانال یوتیوب کگل به صورت زنده به بررسی عمیقتر موضوعات و پاسخ به سوالات میپردازند.
- **پشتیبانی و بحث:** کانالهای اختصاصی در دیسکورد برای پرسش و پاسخ و ارتباط با سایر شرکتکنندگان و مهندسان گوگل در نظر گرفته شده است.
برنامه درسی روزانه: سفری ۵ روزه به دنیای ایجنتها
این دوره به صورت فشرده در ۵ روز، تمام جنبههای کلیدی برای ساخت ایجنت هوش مصنوعی را پوشش میدهد.
روز اول: مقدمهای بر ایجنتها و ساخت اولین سیستم
در روز اول، با مفهوم ایجنتهای هوش مصنوعی، طبقهبندی قابلیتهای آنها و حلقه استدلال “درک ← برنامهریزی ← عمل ← بازبینی” (Perceive → Plan → Act → Reflect) آشنا میشوید. در بخش عملی، اولین ایجنت خود را با استفاده از کیت توسعه ایجنت (ADK) و مدل Gemini میسازید و به آن قابلیت جستجو در وب را میدهید.
روز دوم: ابزارها و قابلیت همکاری (Interoperability)
روز دوم بر روی ابزارهای خارجی (Tools) و فراخوانی تابع (Function Calling) تمرکز دارد که به ایجنت اجازه میدهند کارهایی فراتر از دانش آموزشی خود انجام دهد. شما یاد میگیرید که چگونه توابع پایتون خود را به ابزارهایی برای ایجنت تبدیل کنید و با پروتکل زمینه مدل (MCP) برای عملیاتهای طولانیمدت کار کنید.
روز سوم: مهندسی زمینه (Context) و حافظه
این بخش به یکی از مهمترین چالشها میپردازد: چگونه یک ایجنت را دارای حافظه و حالت کنیم؟ شما با مفهوم مهندسی زمینه، مدیریت تاریخچه مکالمه (Session) و حافظه بلندمدت آشنا میشوید تا ایجنت شما بتواند مکالمات منسجم و چند مرحلهای داشته باشد.


روز چهارم: کیفیت و ارزیابی ایجنت (Agent Quality)
یک ایجنت تا زمانی که کیفیت آن قابل سنجش نباشد، قابل اعتماد نیست. در روز چهارم، چارچوبی جامع برای ارزیابی کیفیت (Observability) ایجنتها با استفاده از سه ستون اصلی: لاگها (Logs)، ردپاها (Traces) و معیارها (Metrics) معرفی میشود. همچنین روشهای ارزیابی مقیاسپذیر مانند LLM-as-a-Judge و کار با فایلهای تست ساختاریافته (`*.test.json`) را یاد میگیرید.
روز پنجم: از نمونه اولیه تا محصول نهایی (Production)
روز آخر به چالشهای عملیاتی کردن ایجنتها اختصاص دارد. شما یاد میگیرید که چگونه سیستمهایی از ایجنتهای مستقل (Multi-agent) بسازید که با استفاده از پروتکل A2A با یکدیگر ارتباط برقرار میکنند. در بخش اختیاری نیز میتوانید ایجنت خود را با Docker کانتینرسازی کرده و روی Vertex AI در Google Cloud مستقر کنید.
| روز | موضوع اصلی | مفاهیم کلیدی | خروجی عملی |
|---|---|---|---|
| **۱** | مقدمهای بر ایجنتها | ADK, Gemini, Multi-agent | ساخت اولین ایجنت با قابلیت جستجو |
| **۲** | ابزارها و همکاری | Custom Tools, MCP, Function Calling | ساخت ابزارهای سفارشی برای ایجنت |
| **۳** | زمینه و حافظه | Context Engineering, Sessions | ساخت ایجنت با حافظه بلندمدت |
| **۴** | کیفیت و ارزیابی | Observability, LLM-as-a-Judge | پیادهسازی لاگ و ارزیابی کیفیت |
| **۵** | تولید و استقرار | A2A Protocol, Vertex AI, Docker | استقرار ایجنت روی کلاد |
پروژه نهایی (Capstone Project) و مزایای تکمیل دوره
یکی از جذابترین بخشهای این دوره، **پروژه محور کگل** است. پس از اتمام ۵ روز آموزش، شما فرصت دارید تا تمام آموختههای خود را در یک پروژه واقعی به کار بگیرید و ایجنت هوش مصنوعی خود را بسازید. شرکت در این پروژه اختیاری است، اما مزایای فوقالعادهای دارد:
- **دریافت نشان (Badge) و گواهینامه کگل:** با شرکت در پروژه نهایی، یک نشان و گواهی معتبر به پروفایل کگل شما اضافه میشود.
- **جوایز ارزشمند:** به ۱۲ پروژه برتر جوایزی مانند محصولات کگل (Swag) اهدا شده و در شبکههای اجتماعی کگل معرفی میشوند.
- **تقویت رزومه:** داشتن یک پروژه عملی که توسط متخصصان گوگل ارزیابی شده، یک امتیاز بزرگ برای رزومه شما محسوب میشود.
این دوره یک فرصت استثنایی برای یادگیری عمیق و عملی در یکی از داغترین حوزههای فناوری است. اگر میخواهید از یک مصرفکننده هوش مصنوعی به یک سازنده تبدیل شوید، این دوره نقطه شروعی عالی برای شماست.
بخش دوم: تحلیل عمیقتر – ۵ حقیقت استراتژیک پشت این دوره «رایگان»
گوگل و Kaggle با دورههای قبلی خود بیش از ۴۲۰,۰۰۰ شرکتکننده جذب کردهاند. اما وقتی یک غول فناوری چنین منبع آموزشی گستردهای را به صورت «رایگان» ارائه میدهد، سؤال استراتژیکتری مطرح میشود: گوگل واقعاً چه چیزی را به این مخاطب عظیم جهانی آموزش میدهد؟ این دوره فراتر از یک اقدام ترویجی صرف است؛ این یک سرمایهگذاری حسابشده برای ساختن اکوسیستم، استانداردسازی پروتکلها و ایجاد یک کانال استعدادیابی جهانی است.
۱. این یک بازی استراتژیک برای تسلط بر اکوسیستم است
این دوره یک ابزار استراتژیک برای تثبیت سلطه گوگل در حوزه هوش مصنوعی عامل-محور (Agentic AI) است. برنامه درسی با دقت طراحی شده تا پذیرش مجموعه فناوریهای اختصاصی گوگل را ترویج دهد. مؤلفههای کلیدی که آموزش داده میشوند عبارتند از:
- **کیت توسعه عامل (ADK):** پلتفرم استاندارد گوگل برای مدیریت چرخه عمر عاملها.
- **پروتکل زمینه مدل (MCP):** استاندارد گوگل برای تضمین قابلیت همکاری بین عاملها و ابزارها.
- **پروتکل عامل به عامل (A2A):** چارچوب همکاری بین چندین عامل تخصصی.
هدف نهایی، «وابستهسازی اکوسیستم توسعهدهندگان» (Developer Ecosystem Lock-in) است. با آموزش صدها هزار توسعهدهنده بر روی این ابزارها، گوگل یک استخر استعداد عظیم ایجاد میکند که منحصراً با پشته فناوری این شرکت مهارت دارند.
۲. تغییر تمرکز از هوش مصنوعی «عمومی» به «عامل-محور»
این دوره نشاندهنده یک تغییر تهاجمی در تمرکز صنعت از هوش مصنوعی مولد عمومی به ایجنتهای تخصصی است. مقایسه این دوره با نسخههای قبلی، این تغییر استراتژیک را نشان میدهد:
| تکرار دوره | تمرکز | موضوعات کلیدی |
|---|---|---|
| دوره فشرده GenAI (قبلی) | هوش مصنوعی مولد گسترده | مدلهای پایهای، Embeddingها، MLOps |
| دوره فشرده AI Agents (فعلی) | هوش مصنوعی عامل-محور تخصصی | معماریهای ایجنت، ابزارها، سیستمهای A2A |
این تغییر نشان میدهد که گوگل باور دارد آینده توسعه هوش مصنوعی در ساخت سیستمهای خودمختار و عامل-محور نهفته است.
۳. «رایگان» یعنی تست بتا در مقیاس انبوه
ارائه رایگان این دوره دو هدف استراتژیک دارد. اول، مدیریت منابع؛ الزام به «تأیید تلفنی» یک مکانیسم هوشمندانه برای فیلتر کردن کاربران غیرجدی و محافظت از سرمایهگذاری عظیم گوگل در منابع محاسباتی رایگان است.
دوم، این دوره به عنوان یک «محیط تست توزیعشده و عظیم» عمل میکند. صدها هزار کاربر به طور همزمان در حال تست استرس جدیدترین ابزارهای گوگل (مانند ADK، MCP و SDK یکپارچه google-genai) قبل از عرضه تجاری کامل آنها هستند. این رویکرد دادههای استفاده واقعی و ارزشمندی را در مقیاسی فراهم میکند که ریسک پذیرش سازمانی را برای گوگل به شدت کاهش میدهد.
۴. تمرکز بر MLOps: تربیت متخصصان آماده تولید
برنامه درسی، بهویژه در روز چهارم (کیفیت و ارزیابی)، عمیقاً بر تضمین کیفیت در سطح سازمانی (MLOps) تمرکز دارد. شرکتکنندگان مهارتهای عملی و ضروری مانند «مشاهدهپذیری ایجنت» (Agent Observability) برای بازرسی و اشکالزدایی فرآیندهای استدلال، و همچنین انجام تستهای ساختاریافته و تکرارپذیر با فایلهایی مانند `*.test.json` و `*.evalset.json` را میآموزند. این دوره متخصصانی میسازد که میتوانند سیستمهای قابل اعتماد و مقیاسپذیر بسازند، نه فقط نمونههای اولیه.
۵. قیف فروش: از Kaggle به Google Cloud
قیف فروش گوگل کاملاً شفاف است. مسیر یادگیری رایگان در Kaggle مستقیماً به پلتفرم تجاری Google Cloud ختم میشود. این مسیر به وضوح در روز پنجم ترسیم شده است:
- **مرحله ۱:** توسعه نمونه اولیه در محیط رایگان نوتبوکهای Kaggle.
- **مرحله ۲:** یادگیری کانتینرسازی راهحلها با استفاده از Docker.
- **مرحله ۳:** گام نهایی و استراتژیک، مقیاسبندی راهحل در پلتفرم سازمانی Vertex AI گوگل.
این ساختار یک قیف عمدی است که برای تسریع پذیرش سازمانی خدمات Google Cloud طراحی شده است. این دوره همانقدر که یک کلاس درس در هوش مصنوعی است، یک کلاس درس استادانه در توسعه استراتژیک بازار نیز محسوب میشود.
بخش سوم: ضمیمههای فنی
برای درک کامل فناوریهای مورد بحث در این دوره، در ادامه به مفاهیم بنیادی میپردازیم.
ضمیمه الف: مدلهای زبان بزرگ (LLM) چگونه کار میکنند؟
به زبان ساده، یک مدل زبان بزرگ (LLM) یک سیستم هوش مصنوعی پیشرفته است که در پردازش، درک و تولید متن شبهانسان تخصص دارد. این سیستمها بر روی حجم عظیمی از دادههای متنی آموزش میبینند. کاربردهای آنها شامل ترجمه، خلاصهسازی و پاسخ به پرسش است.
۱. موتور محرک: معماری ترنسفورمر (Transformer)
قبل از ترنسفورمرها، مدلهایی مانند RNNها دادهها را به صورت ترتیبی (کلمه به کلمه) پردازش میکردند که کند بود. معماری ترنسفورمر (معرفی شده در سال ۲۰۱۷) با پردازش **موازی** تمام کلمات به صورت همزمان، این مشکل را حل کرد. جزء جادویی آن، مکانیزم **«خود-توجهی» (Self-Attention)** است. این مکانیزم به مدل اجازه میدهد تا اهمیت کلمات مختلف را در یک جمله نسبت به یکدیگر بسنجد و زمینه را درک کند. برای مثال، در جمله “ببر از درختی پایین پرید چون تشنه بود”، «توجه» به مدل کمک میکند بفهمد که ضمیر “او” (it) به “ببر” اشاره دارد نه “درخت”.
۲. آموزش در مقابل استنتاج (Training vs. Inference)
چرخه حیات یک LLM دو مرحله دارد:
| مرحله | توضیح |
|---|---|
| **آموزش (Training)** | فرآیند پرهزینه و زمانبر که در آن پارامترهای مدل با استفاده از مجموعه دادههای عظیم تنظیم میشوند. هدف، به حداقل رساندن خطا در پیشبینی کلمه بعدی است. |
| **استنتاج (Inference)** | مرحلهای که کاربر نهایی با آن تعامل دارد. پارامترهای مدل “ثابت” هستند و مدل از دانش خود برای تولید پاسخ به ورودیهای جدید استفاده میکند. |
۳. سفارشیسازی: قدرت تنظیم دقیق (Fine-Tuning)
یک مدل از پیش آموزشدیده (Pre-trained) مانند یک “متخصص عمومی” است. برای تبدیل آن به “متخصص ویژه” (مثلاً برای پاسخ به سوالات پزشکی)، از تنظیم دقیق استفاده میکنیم. این کار با استفاده از مجموعه دادههای کوچکتر اما باکیفیتتر انجام میشود.
- **تنظیم دقیق نظارتشده (SFT):** آموزش مدل از طریق مثالهای باکیفیت (جفتهای پرامپت-پاسخ).
- **یادگیری تقویتی از بازخورد انسانی (RLHF):** آموزش یک “مدل پاداش” بر اساس رتبهبندی انسانها از پاسخهای مختلف، تا مدل یاد بگیرد پاسخهای مفیدتر و ایمنتری تولید کند.
- **تنظیم دقیق با پارامتر بهینه (PEFT):** یک رویکرد کمهزینهتر که به جای تغییر تمام پارامترها، فقط بخش کوچکی از آنها را آموزش میدهد.
ضمیمه ب: مهندسی پرامپت – راهنمای هدایت هوش مصنوعی
مهندسی پرامپت (Prompt Engineering) فرآیند طراحی ورودیهای باکیفیت برای هدایت LLMها به سمت تولید خروجیهای دقیق و مطلوب است.
۱. پیکربندی خروجی: کنترل خلاقیت
علاوه بر متن پرامپت، میتوانید پارامترها را تنظیم کنید:
- **Temperature (دما):** میزان تصادفی بودن. دمای پایین (مثلاً 0.1) برای پاسخهای قطعی و مبتنی بر واقعیت مناسب است. دمای بالا (مثلاً 0.9) برای کارهای خلاقانه (مانند داستاننویسی) کاربرد دارد.
- **Top-K / Top-P:** روشهایی برای محدود کردن انتخابهای مدل فقط به محتملترین توکنها، تا از تولید کلمات عجیب و غریب جلوگیری شود.
۲. تکنیکهای اصلی پرامپتنویسی
- **پرامپتینگ Zero-Shot (شات-صفر):** سادهترین رویکرد که تنها شامل توصیف وظیفه بدون هیچ مثالی میشود. (مثال: «این متن را به فارسی ترجمه کن.»)
- **پرامپتینگ Few-Shot (شات-چندگانه):** ارائه چندین مثال به مدل تا الگو و ساختار خروجی مورد نظر (مثلاً فرمت JSON) را یاد بگیرد.
- **پرامپتینگ نقش (Role Prompting):** اختصاص دادن یک شخصیت یا هویت خاص به مدل. (مثال: «تو یک راهنمای تور در اصفهان هستی. سه مکان را پیشنهاد بده.»)
- **زنجیره فکر (Chain of Thought – CoT):** واداشتن مدل به تولید مراحل استدلال میانی (گام به گام فکر کردن) قبل از ارائه پاسخ نهایی. این کار دقت را در مسائل پیچیده افزایش میدهد.
ضمیمه ج: بهینهسازی استنتاج – چالش استراتژیک اجرای LLMها
استنتاج (تولید خروجی) در LLMها بسیار پرهزینه است. بهینهسازی این فرآیند یک ضرورت استراتژیک برای مهار هزینههای عملیاتی است. این کار نیازمند مدیریت توازنهای کلیدی است.
۱. توازنهای استراتژیک اصلی
- **کیفیت در برابر تأخیر/هزینه:** پذیرش کاهش جزئی در دقت مدل (مثلاً استفاده از مدل کوچکتر) میتواند به بهبود قابل توجهی در سرعت و هزینه منجر شود.
- **تأخیر در برابر توان عملیاتی (هزینه):** در کاربردهای تعاملی (چتبات) «تأخیر کم» اولویت دارد. در پردازش دستهای (آفلاین) «توان عملیاتی بالا» (هزینه کمتر به ازای هر درخواست) مهمتر است.
۲. طبقهبندی استراتژیهای بهینهسازی
تکنیکهای بهینهسازی به دو دسته اصلی تقسیم میشوند:
| نوع روش | توضیح | مثالها |
|---|---|---|
| **۱. تقریبزننده خروجی** | با ایجاد تغییرات جزئی در محاسبات، سرعت را افزایش میدهند. ممکن است بر خروجی نهایی تأثیر بگذارند (کاهش جزئی کیفیت). | **کوانتیزاسیون (Quantization):** کاهش دقت عددی وزنها (مثلاً از ۳۲ بیت به ۸ بیت) برای کاهش مصرف حافظه و تسریع محاسبات. **تقطیر (Distillation):** آموزش یک مدل کوچکتر (دانشآموز) برای تقلید رفتار یک مدل بزرگتر (معلم). |
| **۲. حافظ خروجی** | تضمین میکنند که خروجی مدل بدون هیچ تغییری باقی میماند (از نظر کیفیت خنثی هستند). | **Flash Attention:** الگوریتمی بهینهتر برای محاسبه «توجه» که جابجایی داده بین حافظهها را به حداقل میرساند. **رمزگشایی گمانهزنانه (Speculative Decoding):** استفاده از یک مدل «پیشنویس» کوچک و سریع برای پیشبینی چندین توکن، و سپس تأیید دستهای آنها توسط مدل بزرگ اصلی. **دستهبندی (Batching):** پردازش همزمان چندین درخواست برای استفاده بهتر از سختافزار. |
انتخاب استراتژی بهینهسازی به پروفایل مورد استفاده بستگی دارد: اپلیکیشنهای تعاملی به روشهای حافظ خروجی (مانند رمزگشایی گمانهزنانه) نیاز دارند، در حالی که پردازشهای دستهای میتوانند از روشهای تقریبزننده (مانند کوانتیزاسیون) بهره ببرند.
منبع اصلی دوره: Kaggle
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0


