مدل GPT-OSS معرفی شد: نسخه متن‌باز GPT از OpenAI

۱ دقیقه
مدل GPT-OSS معرفی شد: نسخه متن‌باز GPT از OpenAI

مدل GPT-OSS جدیدترین دستاورد شرکت OpenAI در حوزه هوش مصنوعی متن‌باز است. OpenAI با معرفی GPT-OSS (مخفف GPT Open-Source یا GPT متن‌باز) برای اولین بار پس از GPT-2، وزن‌های یک مدل زبانی بزرگ را به‌صورت آزاد منتشر کرده است. این اقدام، به توسعه‌دهندگان و کسب‌وکارها اجازه می‌دهد یک مدل قدرتمند هوش مصنوعی را بر روی سخت‌افزار خودشان اجرا و شخصی‌سازی کنند.

در این مقاله از ایلاچت به معرفی هر دو نسخه GPT-OSS که اخیرا منتشر شده‌اند می‌پردازیم، ویژگی‌های کلیدی آن‌ها را بررسی می‌کنیم، مقایسه‌ای با دیگر مدل‌های معروف انجام می‌دهیم، حداقل سخت‌افزار مورد نیاز را بیان کرده و نحوه نصب و استفاده از این مدل‌ها را توضیح می‌دهیم.

GPT-OSS چیست؟

OpenAI خانواده‌ی مدل زبانی بزرگ GPT-OSS (جی‌پی‌تی اپن سورس) را به‌صورت متن‌باز و تحت مجوز Apache 2.0 عرضه کرده است. این اولین باری است که OpenAI پس از مدل GPT-2 (در سال ۲۰۱۹) یک مدل زبان بزرگ را با وزن‌های آزاد منتشر می‌کند. انتشار GPT-OSS تحول بزرگی ایجاد کرده است، زیرا پیش از آن، OpenAI مدل‌های پیشرفته‌ی خود مانند GPT-3.5 و GPT-4 را فقط از طریق API و به‌صورت بسته ارائه می‌داد. اما اکنون با GPT-OSS، کنترل کامل به دست کاربران بازگشته است؛ شما می‌توانید این مدل‌ها را به‌صورت محلی یا روی سرورهای خود اجرا کرده و مطابق نیازتان تنظیم کنید.

OpenAI این حرکت را با هدف دموکراتیک کردن هوش مصنوعی و فراهم‌کردن دسترسی عمومی به مزایای آن انجام داده است. بسیاری از کسب‌وکارها به دلیل نگرانی‌های مربوط به حریم خصوصی داده یا هزینه‌ها، ترجیح می‌دهند مدل‌های هوش مصنوعی را روی زیرساخت خود اجرا کنند. به همین دلیل، OpenAI مدل GPT-OSS را برای تحقق این هدف معرفی کرده است. این شرکت اعلام کرده که GPT-OSS امکان استفاده‌ای ایمن، مسئولانه و آزادانه از مدل‌های زبانی را فراهم می‌کند. این مدل‌ها علاوه بر داشتن مزایای متن‌باز بودن، از نظر کارایی و کیفیت نیز توان رقابت با بسیاری از مدل‌های بسته را دارند.

بیشتر بخوانید: GPT-5 رونمایی شد: مدل جدید OpenAI با جهشی بزرگ در هوش مصنوعی

معرفی دو نسخه GPT-OSS: مدل‌های ۲۰B و ۱۲۰B

OpenAI دو مدل در خانواده GPT-OSS منتشر کرده است: GPT-OSS-20B و GPT-OSS-120B. این دو مدل از لحاظ اندازه و توان پردازشی متفاوتند تا نیازهای گوناگون را پوشش دهند:

معرفی مدل GPT-OSS-20B

GPT-OSS-20B دارای حدود ۲۱ میلیارد پارامتر است. این نسخه جمع‌وجورتر و بهینه‌تر بوده و می‌تواند روی سخت‌افزارهای معمولی‌تر نیز اجرا شود. GPT-OSS-20B تنها به حدود ۱۶ گیگابایت حافظه (VRAM) نیاز دارد، بنابراین حتی روی یک کارت گرافیک رده‌بالای مصرفی (مثل RTX با ۱۶ گیگابایت) یا سیستم‌های دسکتاپ قابل اجراست. با اینکه این مدل کوچک‌تر است، عملکرد آن قابل‌توجه است. طبق ارزیابی‌های OpenAI، مدل ۲۰B روی وظایف استاندارد، نتایجی در حد GPT-3 (نسخه کوچک OpenAI o3-mini) به دست می‌دهد. این یعنی برای کاربردهای روزمره و حتی اجرای محلی روی لپ‌تاپ‌های قدرتمند، مدل ۲۰B گزینه‌ای ایده‌آل است. کاربران گزارش کرده‌اند که این مدل روی لپ‌تاپی مانند مک‌بوک با ۳۲ گیگابایت RAM تنها حدود ۱۲ گیگابایت رم مصرف کرده و بدون مشکل اجرا شده است؛ موضوعی که بهینه‌سازی عالی آن را نشان می‌دهد.

معرفی مدل GPT-OSS-120B

GPT-OSS-120B دارای حدود ۱۱۷ میلیارد پارامتر است که آن را به یک مدل عظیم و قدرتمند تبدیل می‌کند. این نسخه برای کارهای پیچیده‌تر و استدلال عمیق طراحی شده است. GPT-OSS-120B به طور معمول نیاز به سخت‌افزار قوی‌تری دارد و بهترین عملکرد خود را روی یک کارت گرافیک دیتاسنتری نظیر NVIDIA H100 با ۸۰ گیگابایت حافظه نشان می‌دهد. البته می‌توان آن را روی چند GPU کوچکتر نیز توزیع کرد (مثلا دو GPU هر کدام ۴۰GB). مدل ۱۲۰B در ارزیابی‌های OpenAI عملکردی نزدیک به GPT-4 (نسخه o4-mini) ارائه داده است. به بیان دیگر، این مدل متن‌باز در انجام وظایف استدلالی تقریبا هم‌تراز با یکی از نسخه‌های پیشرفته‌ی GPT-4 عمل کرده و موفقیتی بزرگ را برای جامعه‌ی متن‌باز رقم زده است. البته اجرای مدل بزرگ به منابع قابل‌توجهی نیاز دارد و بیشتر مناسب سرورهای قدرتمند یا خدمات ابری است.

مقایسه دو مدل GPT-OSS-120B و GPT-OSS-20B

ویژگیGPT-OSS-20BGPT-OSS-120B
تعداد پارامتر~۲۱ میلیارد~۱۱۷ میلیارد
نیاز حافظه (VRAM)حدود ۱۶ گیگابایتحدود ۸۰ گیگابایت (یا دو GPU × 40GB)
قابل اجرا رویدسکتاپ‌ها، لپ‌تاپ‌های قدرتمند (مثلا مک‌بوک)سرورها، GPUهای دیتاسنتری (مثلا NVIDIA H100)
عملکرد نسبیمعادل GPT-3 (o3-mini)نزدیک به GPT-4 (o4-mini)
مناسب برایکاربردهای روزمره، اجرای محلیکارهای پیچیده، استدلال عمیق
معماری استفاده‌شدهMixture-of-Experts (MoE)Mixture-of-Experts (MoE)
پارامتر فعال در هر مرحله~۳.۶ میلیارد~۵.۱ میلیارد
فشرده‌سازی وزن‌هافرمت ۴-بیتی (MXFP4)فرمت ۴-بیتی (MXFP4)
مزیت اصلیبهینه، سبک، قابل اجرا روی سخت‌افزار معمولیقدرتمند، نزدیک به GPT-4، برای سرورها
مقایسه دو مدل GPT-OSS-20B و GPT-OSS-120B

هر دو مدل GPT-OSS از تکنیک پیشرفته Mixture-of-Experts یا MoE بهره می‌برند. در این معماری، به جای فعال‌سازی همه پارامترها برای هر ورودی، تنها بخشی از «متخصص‌ها» فعال می‌شوند (برای مدل ۲۰B حدود ۳٫۶ میلیارد و برای ۱۲۰B حدود ۵٫۱ میلیارد پارامتر در هر مرحله فعال هستند). این معماری هوشمندانه به مدل امکان می‌دهد با داشتن پارامترهای بسیار زیاد، همچنان کارآمد و سریع عمل کند و حافظه کمتری اشغال نماید. علاوه بر این، OpenAI وزن‌های این مدل‌ها را به صورت ۴-بیتی (فرمت MXFP4) کم‌فشرده کرده است که باز هم موجب کاهش مصرف حافظه و افزایش سرعت شده است. نتیجه‌ی این بهینه‌سازی‌ها آن است که مدل ۱۲۰B بر خلاف اندازه عظیمش، روی یک GPU با حافظه ۸۰GB قابل اجراست و مدل ۲۰B را می‌توان با یک GPU 16GB (یا معادل آن حافظه سیستم) راه‌اندازی کرد.

ویژگی‌ها و قابلیت‌های کلیدی GPT-OSS

مدل‌های GPT-OSS به‌گونه‌ای طراحی شده‌اند که در کاربردهای واقعی عملکرد قدرتمندی ارائه دهند. در ادامه به مهم‌ترین قابلیت‌ها و ویژگی‌های این مدل‌ها اشاره می‌کنیم:

۱. توانایی استدلال و زنجیره تفکر (Chain-of-Thought)

GPT-OSS در انجام وظایف پیچیده که نیازمند استدلال چندمرحله‌ای است بسیار تواناست. این مدل قادر است مسائل را مرحله به مرحله حل کند و حتی رشته استدلال خود را (در صورت نیاز) به صورت گام‌به‌گام تولید نماید. برای مثال در حل مسائل ریاضی یا برنامه‌نویسی، می‌تواند منطق خود را توضیح دهد و به نتیجه برسد. این ویژگی حاصل آموزش مدل با داده‌های خاص و الهام‌گرفته از پیشرفته‌ترین مدل‌های داخلی OpenAI است.

۲. دقت در پیروی از دستورالعمل‌ها

این مدل‌ها به شکل ویژه برای دستورپذیری و فهم دقیق درخواست کاربر آموزش داده شده‌اند. در نتیجه، GPT-OSS می‌تواند به خوبی به پرسش‌ها پاسخ دهد، خلاصه‌سازی کند، محتوای تولیدی را بر اساس راهنمایی‌های کاربر تنظیم کند و به طور کلی تعامل طبیعی و مفیدی شبیه ChatGPT داشته باشد.

۳. قابلیت استفاده از ابزارها و انجام وظایف عاملی (Agentic)

یکی از نقاط قوت GPT-OSS توانایی آن در استفاده از ابزارهای خارجی نظیر جستجوی وب، اجرای کد پایتون یا فراخوانی توابع در حین پاسخ‌دهی است. این مدل‌ها برای ادغام در کار جریان‌های عاملی (agentic workflows) طراحی شده‌اند؛ به این معنی که می‌توانند به عنوان مغز متفکر ربات‌های گفتگو یا دستیارهای هوشمند عمل کنند که در حین تعامل، به ابزارهایی مانند پایگاه‌های داده، APIها یا مرورگر وب دسترسی دارند. GPT-OSS حتی قابلیت جدید few-shot function calling (فراخوانی توابع با نمونه‌های کم) را به خوبی پشتیبانی می‌کند، یعنی می‌توان با چند نمونه به آن یاد داد چگونه توابع خاصی را فراخوانی کرده و پاسخ‌های ساخت‌یافته ایجاد کند. این ویژگی برای ساخت چت‌بات‌های کاربردی که نیاز به انجام کار (مانند رزرو، محاسبات، استخراج اطلاعات و غیره) دارند بسیار ارزشمند است.

بیشتر بخوانید: هوش مصنوعی عاملی (Agentic AI) چیست و چگونه کار می‌کند؟

۴. پنجره ورودی/خروجی طولانی (کانتکست بلند)

مدل‌های GPT-OSS از کانتکست ۱۳۱ هزار توکن پشتیبانی می‌کنند. این عدد بسیار فراتر از استاندارد رایج (مثلا ۴۰۰۰ یا ۸۰۰۰ توکن) است و حتی از برخی مدل‌های بسته نظیر GPT-4 با ۳۲k توکن نیز بیشتر است. به زبان ساده، GPT-OSS می‌تواند متون بسیار طولانی را در ورودی بپذیرد و درباره آن استدلال یا خلاصه‌سازی کند، یا پاسخ‌هایی تولید کند که خود شامل متن بلندی باشد. این ویژگی برای کاربردهایی نظیر پردازش اسناد حجیم، چت‌های بلندمدت با کاربر، یا ترکیب داده‌های زیاد برای پاسخ‌دهی (مانند دریافت چندین مقاله علمی و پاسخ به سوال بر اساس مجموعه آن‌ها) بسیار مفید است.

۵. بازدهی بالا و هزینه اجرای پایین

به لطف معماری MoE و کوانتیزه‌سازی ۴-بیتی، GPT-OSS به شکل بهینه‌ای از منابع سخت‌افزاری استفاده می‌کند. OpenAI اشاره کرده که این مدل‌ها سریع و کم‌هزینه هستند و حتی GPT-OSS-120B با وجود بزرگی، زمان پاسخ‌دهی بسیار سریعی دارد. در واقع معماری Mixture-of-Experts باعث کاهش تاخیر (Latency) شده و مدل ۱۲۰B را قادر ساخته تا برای کاربردهای بلادرنگ مانند چت و تصمیم‌گیری لحظه‌ای مناسب باشد. این بدان معناست که کسب‌وکارها می‌توانند بدون نیاز به خوشه‌های عظیم گران‌قیمت، مدل را برای سرویس‌های آنی به کار گیرند.

۶. قابلیت شخصی‌سازی و Fine-tuning

از آنجا که GPT-OSS متن‌باز است، سازمان‌ها می‌توانند آن را با داده‌های اختصاصی صنعت خود مدل را Fine-tune کنند تا عملکردش در وظایف ویژه بهبود یابد. بر خلاف مدل‌های بسته که دسترسی به وزن‌ها وجود ندارد، اینجا می‌توانید مدل را روی داده‌های خصوصی شرکت خود تنظیم کنید و یک نسخه متخصص در حوزه کاری خود داشته باشید. همچنین امکان کم‌حجم‌سازی مدل (مثلا از طریق روش‌هایی چون LoRA/QLoRA) نیز وجود دارد تا مدل برای اجرا روی سخت‌افزارهای ضعیف‌تر مناسب‌تر شود. حتی می‌توان بخش‌هایی از مدل را تغییر داد یا معماری آن را برای نیازهای خاص اصلاح کرد که همگی به لطف متن‌باز بودن میسر است.

۷. استانداردهای ایمنی و اخلاقی

OpenAI اهمیت ویژه‌ای به ایمنی مدل‌های GPT-OSS داده است. پیش از انتشار، این مدل‌ها تحت آموزش‌های ایمنی پیشرفته قرار گرفته و سپس به‌طور سخت‌گیرانه ارزیابی شده‌اند. برای اطمینان بیشتر، تیم OpenAI حتی یک نسخه دستکاری‌شده و بدخواهانه از GPT-OSS-120B را آزمایش کرده تا ببیند آیا می‌توان از طریق ریزآموزی مخرب، مدل را به رفتارهای خطرناک واداشت یا خیر. نتیجه دلگرم‌کننده بود: حتی با چنین ترفندهایی مدل به سطوح خطرناک دست نیافت و توانایی‌های مخرب بالایی نشان نداد. OpenAI اعلام کرده که عملکرد ایمنی GPT-OSS‌ها در حد مدل‌های بسته اخیر خودشان است. بنابراین توسعه‌دهندگان می‌توانند از استانداردهای ایمنی مشابه GPT-4 در این مدل‌های متن‌باز بهره‌مند شوند. البته OpenAI همراه با این مدل، یک سیاست استفاده نیز منتشر کرده که کاربران را به استفاده قانونی و مسئولانه ترغیب می‌کند (برای مثال، جلوگیری از کاربردهای آسیب‌رسان یا غیرقانونی).

۸. مجوز آزاد و بدون محدودیت‌های تجاری

همان‌طور که پیش‌تر اشاره شد، OpenAI مدل GPT-OSS را تحت مجوز Apache 2.0 منتشر کرده است. این مجوز به شما اجازه می‌دهد آزادانه حتی در پروژه‌های تجاری از مدل استفاده کنید، آن را تغییر دهید یا به اشتراک بگذارید، بدون نگرانی از مسائل حقوقی پیچیده. برخلاف برخی مدل‌های متن‌باز (مانند بعضی نسخه‌های LLaMA از متا) که استفاده‌ی تجاری را محدود کرده‌اند، OpenAI رویکردی کاملا آزاد و باز در پیش گرفته است. تنها شرط استفاده، پایبندی به قوانین و پرهیز از سوءاستفاده است؛ چیزی که در اصل به معنای رعایت اصول استفاده‌ی مسئولانه از فناوری محسوب می‌شود.

بیشتر بخوانید: پروتکل زمینه مدل (MCP) چیست و چه نقشی در هوش مصنوعی دارد؟

مقایسه GPT-OSS با دیگر مدل‌های معروف هوش مصنوعی

انتشار GPT-OSS توجه بسیاری را به خود جلب کرده، چرا که این مدل‌ها رقیبی جدی برای همتایان معروف خود محسوب می‌شوند. در این بخش GPT-OSS را در زمینه‌های مختلف با چند مدل شاخص دیگر مقایسه می‌کنیم:

معیار مقایسهGPT-OSSمدل‌های بسته OpenAIمدل‌های متن‌باز دیگر
سطح دسترسیکاملا متن‌بازبسته و API محورمتن‌باز (اکثرا با محدودیت‌های لایسنس)
مدل برجستهGPT-OSS-120B و GPT-OSS-20BGPT-4، GPT-3.5LLaMA 2 (70B)، Falcon (40B/180B)، Bloom و …
عملکرد در استدلال (بنچمارک)120B نزدیک به GPT-4 (o4-mini)GPT-4 کامل همچنان قوی‌ترین استGPT-OSS-120B در برخی موارد بهتر از LLaMA 2 و Falcon
مقایسه مدل‌های کوچک‌تر20B هم‌تراز با GPT-3 (o3-mini)GPT-3.5 و GPT-3GPT-OSS-20B برتر از Falcon-40B و MPT-30B در برخی حوزه‌ها
کاربرد در کدنویسیعملکرد بسیار قوی در بنچمارک‌هاقوی (مخصوصا GPT-4)عملکرد خوب، ولی پایین‌تر از GPT-OSS
قابلیت خودمیزبانی (Self-hosting)بله، قابل اجرا روی سخت‌افزار خودیخیر، فقط از طریق API شرکت OpenAIبرخی مدل‌ها بله، ولی معمولا نیازمند تنظیمات پیچیده
کنترل بر داده و امنیتکامل (داده‌ها روی سیستم شما می‌ماند)وابسته به سرویس‌دهندهتا حدی، بسته به لایسنس و مدل
انعطاف‌پذیری و شخصی‌سازیبله، قابل تغییر، بهینه‌سازی و تنظیمخیربرخی مدل‌ها اجازه شخصی‌سازی محدود دارند
نیاز به منابع سخت‌افزاریمتوسط (20B) تا بالا (120B) با امکان توزیعنیاز ندارد (پردازش روی سرورهای OpenAI انجام می‌شود)متوسط تا بالا، بستگی به مدل
وضعیت در بازارنوظهور اما بسیار قدرتمندپیشرو، تثبیت‌شدهرقابتی، ولی تحت‌الشعاع GPT-OSS قرار گرفته‌اند

مدل‌های GPT-4 و نسخه‌های مختلف آن مانند ChatGPT به عنوان قوی‌ترین مدل‌های زبانی شناخته می‌شوند که به‌صورت بسته توسط OpenAI ارائه شده‌اند. اما مدل‌های متن‌باز نیز پیشرفت چشمگیری داشته‌اند. مدل GPT-OSS-120B در ارزیابی‌های داخلی OpenAI توانسته است از نظر توان استدلال به سطح مدل o4-mini از GPT-4 برسد، و مدل کوچک‌تر GPT-OSS-20B نیز عملکردی نزدیک به GPT-3 (نسخه o3-mini) داشته است. این موفقیت‌ها نشان می‌دهد که بسیاری از کاربردهایی که قبلا فقط با GPT-4 ممکن بودند، اکنون با GPT-OSS نیز قابل اجرا هستند؛ بدون نیاز به اتصال به API بسته.

پیش از GPT-OSS، مدل‌های متن‌بازی مانند LLaMA 2، Falcon و Bloom در دسترس بودند و LLaMA 2 با ۷۰ میلیارد پارامتر یکی از موفق‌ترین‌ها در سال ۲۰۲۳ به‌شمار می‌رفت. اما با معرفی GPT-OSS-120B و استفاده از معماری Mixture-of-Experts (MoE)، OpenAI توانسته عملکردی بهتر یا برابر با این مدل‌ها ارائه دهد. حتی مدل کوچک‌تر GPT-OSS-20B نیز در برخی زمینه‌ها مانند برنامه‌نویسی، از مدل‌هایی مثل Falcon-40B و MPT-30B پیشی گرفته است. این امر نشان‌دهنده‌ی پیشرفت چشمگیر مدل‌های متن‌باز در رقابت با مدل‌های بزرگ و بسته است.

این نمودار رتبه‌ی Elo مدل‌های مختلف را در زمینه‌ی حل مسائل کدنویسی نشان می‌دهد. GPT-OSS-120B (با ابزارها) عملکردی نزدیک به مدل‌های GPT-4 (o4-mini) دارد و حتی از برخی نسخه‌های GPT-3 پیشی گرفته است. عملکرد بالای GPT-OSS-20B نیز قابل‌توجه است و از برخی مدل‌های بزرگ‌تر بسته بهتر ظاهر شده است.
عملکرد مدل‌ها در رقابت‌های کدنویسی (Codeforces)

یکی از برجسته‌ترین مزیت‌های GPT-OSS برای کسب‌وکارها، امکان خودمیزبانی (self-hosting) آن است. برخلاف مدل‌های بسته که نیاز به اتصال به سرویس ابری دارند، GPT-OSS این قابلیت را به شرکت‌ها می‌دهد که مدل را به صورت کامل روی زیرساخت خود اجرا کنند. این موضوع موجب کنترل کامل بر داده‌ها، حفظ حریم خصوصی، و کاهش نگرانی‌های امنیتی می‌شود. همچنین محدودیت‌هایی مانند نرخ درخواست (Rate Limit) یا هزینه‌های متغیر استفاده دیگر مطرح نیستند، چرا که همه چیز روی سخت‌افزار داخلی اجرا می‌شود. این استقلال از سیاست‌های شرکت‌های ارائه‌دهنده مدل، برای بسیاری از سازمان‌ها مزیتی کلیدی محسوب می‌شود. افزون بر این، دسترسی به وزن‌های مدل به شرکت‌ها این امکان را می‌دهد که مدل را مطابق نیاز خود بهینه‌سازی یا شخصی‌سازی کرده و حتی نسخه‌های اختصاصی تولید کنند.

بیشتر بخوانید: دیپ‌سیک: چالش جدید هوش مصنوعی برای انویدیا و غول‌های فناوری

در کاربردهای خاص نیز GPT-OSS عملکرد درخشانی داشته است. برای مثال، در بنچمارک‌های کدنویسی، مدل‌های GPT-OSS به امتیازاتی دست یافته‌اند که حتی از بسیاری از انسان‌ها بالاتر است. در زمینه‌هایی مانند خلاصه‌سازی متون، پاسخ‌گویی به سوالات علمی یا پزشکی (نظیر HealthBench)، نیز این مدل‌ها توانسته‌اند از برخی مدل‌های تجاری مانند OpenAI o1 یا نسخه سازمانی GPT-4 بهتر عمل کنند.

این نمودار درصد پاسخ صحیح مدل‌ها را به سوالات دشوار و بین‌رشته‌ای اندازه‌گیری می‌کند. GPT-OSS-120B (با ابزارها) نسبت به نسخه‌های کوچک‌تر و برخی مدل‌های تجاری، عملکرد رقابتی از خود نشان داده و توانسته است در دسته‌ی مدل‌های متن‌باز، جایگاه بالایی کسب کند.
دقت مدل‌ها در پاسخ به سوالات تخصصی (Humanity’s Last Exam)

این دستاوردها نشان می‌دهند که GPT-OSS نه‌تنها در تئوری، بلکه در عمل نیز به رده‌ی بهترین مدل‌های زبانی نزدیک شده است. البته هر مدل نقاط ضعف خود را دارد و انتظار می‌رود با انتشار گزارش‌های مستقل بیشتر، تصویر دقیق‌تری از جایگاه آن‌ها به‌دست آید. اما در مجموع، GPT-OSS اکنون به‌عنوان یک بازیگر قدرتمند در کنار مدل‌های بزرگی چون GPT-4، Claude 2 و LLaMA 2 مطرح شده و گزینه‌های جذاب‌تری را پیش روی کسب‌وکارها و پژوهشگران قرار داده است.

حداقل سخت‌افزار و سیستم مورد نیاز برای GPT-OSS

یکی از سوالات مهم برای پیاده‌سازی GPT-OSS این است که چه سخت‌افزاری لازم داریم؟ خوشبختانه OpenAI با بهینه‌سازی‌هایی که انجام داده (خصوصا کوانتیزه‌سازی ۴-بیتی و معماری MoE)، اجرای این مدل‌ها را در محدوده سخت‌افزار معقول ممکن کرده است. در ادامه حداقل نیازمندی‌ها و پیشنهادات سخت‌افزاری را بررسی می‌کنیم:

ویژگی/مدلGPT-OSS-20BGPT-OSS-120B
حداقل VRAM برای GPU16 گیگابایت80 گیگابایت (مثلا NVIDIA H100/A100)
GPU پیشنهادیRTX 4080 / 3090 / 40902×40GB GPU یا 4×24GB (مانند چند RTX 3090)
امکان اجرا روی CPUبله، با RAM حدود 48GB و سرعت پایین‌تربسیار محدود یا غیرعملی
اجرای موفق روی لپ‌تاپبله، روی مک‌بوک با 32GB RAM (12GB مصرف RAM)خیر، مگر از طریق کلود یا چند GPU دیتاسنتری
مناسب برایکسب‌وکارهای کوچک، ورک‌استیشن‌های پیشرفتهسازمان‌ها و استارتاپ‌های با زیرساخت قدرتمند
گزینه‌های جایگزیناجرای محلی، اجرای نیمه‌دقیق، استفاده از vLLM/Llama.cppاستفاده از سرویس ابری یا اجاره GPU دیتاسنتری
حجم مدل در حالت کوانتیزه‌شدهقابل مدیریت (~16GB VRAM کافی)چند ده گیگابایت، روی یک کارت 80GB قابل اجراست
نیاز در حالت بدون کوانتیزه‌سازیحدود 48GB RAMصدها گیگابایت حافظه
پشتیبانی از کتابخانه‌های بهینه‌سازیبله (مانند vLLM، Llama.cpp، ROCm برای AMD)بله

برای اجرای GPT-OSS-20B کافی است یک کارت گرافیک با ۱۶ گیگابایت VRAM در اختیار داشته باشید. کارت‌هایی مثل RTX 4080 یا 3090 برای این کار مناسب هستند. حتی برخی کاربران توانسته‌اند این مدل را فقط با CPU اجرا کنند، البته با سرعت کمتر و نیاز به حدود ۴۸ گیگابایت RAM.

این مدل به‌خوبی روی لپ‌تاپ‌های قوی یا ورک‌استیشن‌های متوسط هم اجرا می‌شود. برای نمونه، یک مک‌بوک با ۳۲GB RAM و تراشه Apple Silicon (مثل M3 یا M4) توانسته GPT-OSS-20B را با مصرف تنها ۱۲GB RAM اجرا کند. همچنین این مدل با پردازنده‌های AMD و GPUهای پشتیبانی‌شده از طریق ROCm نیز قابل اجراست. در نتیجه، بسیاری از کاربران شخصی یا کسب‌وکارهای کوچک می‌توانند این مدل را روی سیستم خودشان راه‌اندازی کنند.

در مقابل، GPT-OSS-120B به سخت‌افزار بسیار قدرتمندتری نیاز دارد. یک GPU دیتاسنتری با ۸۰GB حافظه (مثل H100) بهترین گزینه است. اگر چنین کارتی در اختیار ندارید، می‌توانید از چند کارت ضعیف‌تر (مثلا دو عدد ۴۰GB یا چهار عدد ۲۴GB) به‌صورت ترکیبی استفاده کنید.

اگر زیرساخت لازم را ندارید، می‌توانید مدل ۱۲۰B را روی سرویس‌های ابری اجرا کنید. نسخه کوانتیزه‌شده این مدل حجم معقولی دارد و قابل مدیریت است، اما در حالت کامل ممکن است به صدها گیگابایت حافظه نیاز باشد.

در نهایت، فرمت کوانتیزه‌شده‌ی MXFP4 که GPT-OSS از آن استفاده می‌کند، روی کارت‌های گرافیک جدیدتر بهتر پشتیبانی می‌شود؛ مثل سری H100 یا RTX 5000. اگر از کارت قدیمی‌تری استفاده می‌کنید، مدل به‌طور خودکار به حالت bfloat16 سوییچ می‌کند که حافظه بیشتری مصرف می‌کند. با این حال، ابزارهایی مثل vLLM و Llama.cpp کمک می‌کنند حتی روی سخت‌افزارهای متنوع، از جمله پردازنده‌های AMD (از طریق ROCm) و تراشه‌های Apple Silicon (M1، M2، M3، M4) نیز بتوانید GPT-OSS را با کارایی مناسب اجرا کنید.

راهنمای نصب و استفاده از GPT-OSS

پس از تامین سخت‌افزار مناسب، گام بعدی راه‌اندازی و استفاده از GPT-OSS است. خوشبختانه OpenAI و جامعه متن‌باز، کار را برای توسعه‌دهندگان و حتی کاربران غیرمتخصص ساده کرده‌اند. در این بخش، روش‌های مختلف استفاده از GPT-OSS را معرفی می‌کنیم:

روش ۱: استفاده از Hugging Face و Transformers

اگر با پایتون و برنامه‌نویسی آشنا هستید، راحت‌ترین راه استفاده از GPT-OSS، کتابخانه Transformers از Hugging Face است. کافی است کتابخانه‌ها را نصب کنید: (مشاهده داکیومنت در Hugging Face)

pip install transformers accelerate

برای بارگذاری مدل 20B:

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("openai/gpt-oss-20b")
model = AutoModelForCausalLM.from_pretrained(
    "openai/gpt-oss-20b", device_map="auto", torch_dtype="auto"
)
inputs = tokenizer("متن یا سوال ورودی شما", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

این کد مدل را بارگذاری کرده و آماده تولید متن می‌کند. مدل مانند سایر مدل‌های Transformer عمل می‌کند و از قالب چت (role/message) نیز پشتیبانی دارد.

روش ۲: استفاده از API و ارائه‌دهندگان سرویس ابری

اگر دنبال ساده‌ترین راه بدون نیاز به کدنویسی یا سخت‌افزار قوی هستید:

  • Hugging Face Inference Endpoints: با ساخت اکانت در Hugging Face و دریافت توکن، می‌توانید مدل را به صورت سرویس ابری و حتی با API سازگار با OpenAI استفاده کنید. کافی است توکن را تنظیم و از نمونه کدهای پایتون یا جاوااسکریپت استفاده کنید.
  • سرویس‌های آماده دیگر (مانند Azure، AWS Bedrock): مدل‌های GPT-OSS به این پلتفرم‌ها هم اضافه شده‌اند. اگر از سرویس‌های ابری استفاده می‌کنید، می‌توانید مدل را مانند سرویس‌های OpenAI فراخوانی و مصرف کنید.

روش ۳: ابزارهای دسکتاپ (بدون نیاز به برنامه‌نویسی)

اگر به دنبال روشی ساده و بدون نیاز به برنامه‌نویسی برای استفاده از GPT-OSS هستید، ابزارهای دسکتاپی مانند LM Studio و Ollama انتخاب مناسبی هستند. این ابزارها با رابط گرافیکی کاربرپسند، امکان بارگذاری و استفاده از مدل‌های زبان را تنها با چند کلیک فراهم می‌کنند.

LM Studio پس از نصب، به شما اجازه می‌دهد مدل GPT-OSS-20B را مستقیما جستجو و دانلود کنید. پس از بارگذاری مدل، کافی است وارد بخش Chat شوید و پرسش خود را وارد کنید تا پاسخ مدل را دریافت نمایید. این نرم‌افزار برای اجرا به حداقل ۱۳ گیگابایت رم نیاز دارد و قابلیت ارائه API محلی برای توسعه‌دهندگان را نیز دارد.

Ollama نیز ابزاری مشابه است که هم نسخه ترمینالی و هم رابط گرافیکی (ویندوز و مک) را ارائه می‌دهد. پس از نصب، می‌توانید مدل مورد نظر را با دستور ollama pull gpt-oss:20b دریافت و با ollama run gpt-oss:20b اجرا کنید. Ollama از نسخه‌های فشرده مدل‌ها پشتیبانی می‌کند و حتی کاربران مبتدی می‌توانند با چند کلیک از آن استفاده کنند.

جمع‌بندی و توصیه نهایی

GPT-OSS فصل جدیدی را در دنیای هوش مصنوعی رقم زده است. اکنون کسب‌وکارهای آنلاین می‌توانند یک مدل زبان بزرگ در کلاس GPT-4 را بدون وابستگی به APIهای بیرونی در اختیار داشته باشند. این مدل‌ها با مجوز متن‌باز، عملکرد عالی، و نیاز سخت‌افزاری قابل تامین، امکان پیاده‌سازی راهکارهای هوشمند را برای طیف گسترده‌ای از شرکت‌ها فراهم کرده‌اند. چه به دنبال ساخت یک چت‌بات پیشرفته برای پشتیبانی مشتری باشید، چه یک سیستم تحلیل داده متنی روی اطلاعات داخلی شرکت، GPT-OSS گزینه‌ای است که ارزش بررسی را دارد.

با توجه به رویکرد OpenAI در آموزش ایمن این مدل و نتایج امیدوارکننده‌ای که در بنچمارک‌ها مشاهده شده، می‌توان به قابلیت اطمینان آن نیز امیدوار بود. در نهایت، ورود GPT-OSS را می‌توان گامی به سود کاربران و توسعه‌دهندگان دانست؛ گامی که رقابت را بیشتر می‌کند، نوآوری را سرعت می‌بخشد و قدرت هوش مصنوعی را دمکراتیک‌تر از همیشه به دست مردم می‌سپارد.

در همین راستا، پلتفرم‌هایی مانند ایلاچت نیز با بهره‌گیری از قدرت مدل‌های زبانی، امکان راه‌اندازی سریع چت‌بات‌های هوشمند را برای کسب‌وکارها فراهم کرده‌اند؛ راهکاری آماده برای آن‌هایی که می‌خواهند بدون پیچیدگی فنی، از مزایای GPT بهره‌مند شوند.

بیشتر بخوانید: RAG چیست؟ معرفی کامل و کاربردهای آن

پرسش‌های متداول

مدل GPT-OSS دقیقا چیست و چه تفاوتی با ChatGPT دارد؟

GPT-OSS یک خانواده مدل زبان بزرگ (LLM) است که OpenAI به صورت متن‌باز منتشر کرده است. این مدل‌ها از نظر توانایی درک و تولید زبان شبیه ChatGPT هستند (حتی در برخی موارد در حد GPT-4)، اما برخلاف ChatGPT که یک سرویس ابری بسته است، GPT-OSS را می‌توانید دانلود و روی سخت‌افزار خود اجرا کنید. مزیت GPT-OSS در این است که کنترل کامل بر مدل و داده‌های ورودی/خروجی دارید و می‌توانید آن را مطابق نیازتان تغییر دهید یا ریزآموزی کنید.

برای اجرای GPT-OSS به چه سخت‌افزاری نیاز داریم؟

نسخه کوچکتر یعنی GPT-OSS-20B را می‌توان با یک کارت گرافیک نسبتا قوی که حداقل ۱۶ گیگابایت VRAM دارد اجرا کرد (مثلا RTX 4080). این نسخه حتی روی برخی سیستم‌های غیر GPU با RAM بالا هم قابل اجراست (هرچند کندتر). نسخه بزرگ‌تر GPT-OSS-120B معمولا به یک کارت سروری با حدود ۸۰ گیگابایت حافظه نیاز دارد (مثل NVIDIA H100). در صورت عدم دسترسی، می‌توان از چند کارت کوچکتر به صورت ترکیبی استفاده کرد. همچنین سرویس‌های ابری (Azure، AWS و غیره) این مدل را روی سخت‌افزار مناسب برایتان اجرا می‌کنند، کافیست از خدمات آنها استفاده کنید.

آیا استفاده از GPT-OSS رایگان است و محدودیتی ندارد؟

بله، خود مدل‌های GPT-OSS رایگان و متن‌باز هستند و OpenAI آن‌ها را تحت مجوز Apache 2.0 منتشر کرده است. این به آن معناست که برای استفاده از مدل یا تغییر آن نیاز به پرداخت هزینه لایسنس ندارید. تنها هزینه‌ای که متحمل می‌شوید مربوط به زیرساخت اجرای مدل است (مثلا هزینه برق و سخت‌افزار یا سرور ابری). همچنین OpenAI یک سیاست استفاده منتشر کرده که بیشتر جنبه‌ی توصیه به استفاده مسئولانه دارد و از شما می‌خواهد مدل را در چارچوب قوانین و به دور از مقاصد مخرب به کار ببرید. بنابراین تا زمانی که موارد قانونی و اخلاقی را رعایت کنید، در استفاده از GPT-OSS محدودیتی وجود ندارد و حتی برای کاربردهای تجاری هم کاملا آزاد است.

منابع:

برچسب‌ها:
اشتراک گذاری مقاله:

مقالات مرتبط

آماده‌اید هوش مصنوعی را وارد پشتیبانی کسب‌وکارتان کنید؟

با ایلاچت، همین حالا چت بات هوش مصنوعی بسازید و پاسخ‌گویی به مشتریان را ۲۴ ساعته و خودکار کنید.