هوش مصنوعی به طور فزاینده ای حضور خود را در بخش های بیشتری از زندگی ما احساس می کند، مطمئناً از زمان راه اندازی ChatGPT . بسته به دیدگاه شما، این مرد بدجنس بزرگ است که شغل می گیرد و باعث نقض گسترده حق چاپ می شود، یا هدیه ای با پتانسیل منجنیق بشریت به عصر جدید روشنگری.
آنچه بسیاری با فناوری جدید به دست آوردهاند، از Midjourney و LLM گرفته تا الگوریتمهای هوشمند و تحلیل دادهها، فراتر از رادیکال است. این فناوری است که مانند بسیاری از پیشرفتهای مبتنی بر سیلیکون که قبل از آن به وجود آمدهاند، قدرت زیادی در پشت خود دارد. این می تواند خیلی خوب باشد، اما همچنین، بسیاری از آنها می ترسند، بسیاری از بد. و این نتایج کاملاً به نحوه دستکاری، مدیریت و تنظیم آن بستگی دارد.
پس تعجب آور نیست، از آنجایی که هوش مصنوعی با چه سرعتی وارد بازار شده است، که شرکتهای فناوری و تیمهای فروش آنها به همان اندازه به این فناوری متمایل شدهاند و تکرارهای مختلف آن را در جدیدترین محصولات خود قرار میدهند، همگی با هدف تشویق ما به خرید محصولاتشان. سخت افزار
این لپتاپ جدید مجهز به هوش مصنوعی را تحلیل کنید، آن مادربردی که از هوش مصنوعی برای اورکلاک کردن CPU شما به حداکثر استفاده میکند، آن وبکمهای جدید با فناوری یادگیری عمیق هوش مصنوعی. نکته را متوجه شدید. شما فقط می دانید که از دره سیلیکون تا شانگهای، سهامداران و مدیران شرکت ها از تیم های بازاریابی خود می پرسند "چگونه می توانیم هوش مصنوعی را به محصولات خود وارد کنیم؟" به موقع برای CES بعدی یا Computex بعدی، مهم نیست که ارزش چقدر کم باشد. در واقع برای ما مصرف کنندگان باشد.
بزرگترین مشکل من در قالب آخرین نسل از CPU ها است که توسط شرکت هایی مانند AMD ، Intel و Qualcomm راه اندازی شده است. در حال حاضر، اینها محصولات بدی نیستند. کوالکام در بازارهای تراشههای دسکتاپ و لپتاپ پیشرفتهای بزرگی انجام میدهد و عملکرد جدیدترین تراشههای اینتل و AMD اگر نگوییم چشمگیر نیست. نسل به نسل، ما شاهد نمرات عملکرد بالاتر، راندمان بهتر، اتصال گسترده تر، تأخیر کمتر، و صرفه جویی در انرژی مضحک هستیم (اینجا به شما نگاه می کنیم، اسنپدراگون)، در میان انبوهی از تغییرات و انتخاب های نوآورانه طراحی. برای بسیاری از ما انسان های فانی، این چیزی فراتر از 0 و 1 های اولیه است.
با وجود این، ما هنوز هوش مصنوعی را بر روی همه چیز قرار میدهیم، صرف نظر از اینکه واقعاً چیز مفیدی به محصول اضافه میکند یا خیر. ما واحدهای پردازش عصبی (NPU) جدیدی به تراشهها اضافه کردهایم، که پردازندههای مشترکی هستند که برای سرعت بخشیدن به عملیات سطح پایین طراحی شدهاند که میتوانند از هوش مصنوعی بهره ببرند. سپس اینها در لپتاپهای کم مصرف قرار میگیرند و به آنها اجازه میدهند تا از آپشن های پیشرفته هوش مصنوعی مانند دستیار Copilot مایکروسافت برای علامت زدن کادر انتخاب هوش مصنوعی استفاده کنند، گویی که در راهحلی که عمدتاً مبتنی بر ابر است، تفاوت ایجاد میکند.
اما مسئله این است که عملکرد CPU، وقتی صحبت از هوش مصنوعی به میان میآید، ناچیز است. به طور جدی ناچیز است، تا جایی که حتی کمی هم مرتبط نیست. این مانند تلاش برای پرتاب تلسکوپ فضایی JWST ناسا با یک بطری کوکاکولا و مقداری منتو است.
لباس جدید امپراطور؟
من ماه گذشته را صرف آزمایش تعداد زیادی از لپتاپها و پردازندهها کردهام، بهویژه در رابطه با نحوه انجام وظایف و برنامههای هوش مصنوعی. با استفاده از مجموعه معیار Procyon UL (سازندگان سری 3D Mark)، میتوانید تست استنتاج Computer Vision آن را اجرا کنید، و این میتواند عدد خوبی را برای شما ایجاد کند و برای هر جزء به شما امتیاز بدهد. Intel Core i9-14900K؟ 50. AMD Ryzen 9 7900X؟ 56. 9900X؟ 79 (این یک افزایش عملکرد 41 درصدی است، اتفاقاً نسل در نسل، به طور جدی بزرگ).
اما نکته اینجاست: یک GPU را از طریق همان تست، مانند RTX 4080 Super انویدیا ، امتحان کنید و امتیاز 2123 را کسب کنید. این افزایش عملکرد 2587 درصدی در مقایسه با Ryzen 9 9900X است، و حتی از TensorRT SDK خود انویدیا استفاده نمیکند، که حتی از آن نیز امتیاز بیشتری کسب میکند.
واقعیت ساده موضوع این است که هوش مصنوعی مانند هیچ چیز دیگری عملکرد پردازش موازی را می طلبد و در حال حاضر هیچ چیز بهتر از یک کارت گرافیک این کار را انجام نمی دهد. ایلان ماسک این را می داند – او به تازگی 100000 پردازنده گرافیکی Nvidia H100 را در جدیدترین سیستم آموزشی هوش مصنوعی xAI نصب کرده است. این مقدار بیش از یک میلیارد دلار کارت گرافیک در یک ابر رایانه است.
پوشیده از ابرها
برای اضافه کردن توهین به آسیب، اکثریت قریب به اتفاق ابزارهای AI محبوب امروزه برای عملکرد کامل به محاسبات ابری نیاز دارند.
LLM ها (مدل های زبان بزرگ) مانند ChatGPT و Google Gemini به قدرت پردازش و فضای ذخیره سازی زیادی نیاز دارند که اجرای آن ها روی یک ماشین محلی غیرممکن است. حتی فناوری فیلترهای هوشمند Generative Fill و هوش مصنوعی Adobe در آخرین نسخههای فتوشاپ به پردازش ابری برای پردازش تصاویر نیاز دارد.
اجرای اکثریت قریب به اتفاق این برنامه های هوش مصنوعی که امروزه بسیار محبوب هستند بر روی دستگاه خانگی شما امکان پذیر یا ممکن نیست. البته استثنائاتی نیز وجود دارد. برخی از ابزارهای تولید تصویر هوش مصنوعی به مراتب آسانتر در یک ماشین انفرادی کار میکنند، اما با این وجود، بهتر است از محاسبات ابری برای پردازش آن در ۹۹ درصد موارد استفاده کنید.
یک استثنای بزرگ برای این قاعده، افزایش مقیاس موضعی و نمونه برداری فوق العاده است. مواردی مانند DLSS انویدیا و XeSS اینتل، و حتی تا حدی کمتر FSR خود AMD (اگرچه این عمدتا مبتنی بر مدلهای یادگیری عمیق است که از طریق سختافزار شطرنجی اعمال میشود، به این معنی که به اجزای هوش مصنوعی نیاز ندارید) نمونههای فوقالعادهای از استفاده خوب هستند. هوش مصنوعی محلی در غیر این صورت، شما اساساً شانس ندارید.
با این حال، ما اینجا هستیم. یک هفته دیگر، یک لپتاپ دیگر با هوش مصنوعی، یک تراشه هوش مصنوعی دیگر، که به نظر من، بسیاری از آنها در مورد هیچ چیز سر و صدا میکنند.
ارسال نظر