گوگل مدلهای جدید هوش مصنوعی «باز» را با تمرکز بر ایمنی منتشر میکند
گوگل سه مدل جدید و "باز" مولد هوش مصنوعی را منتشر کرد که آنها را "ایمنتر"، "کوچکتر" و "شفافتر" مینامد - مطمئناً ادعایی جسورانه.
آنها به خانواده مدل های مولد Gemma 2 گوگل اضافه شده اند که در ماه مه معرفی شدند. مدلهای جدید Gemma 2 2B، ShieldGemma و Gemma Scope، برای کاربردها و موارد استفاده کمی متفاوت طراحی شدهاند، اما در یک خمیدگی ایمنی مشترک هستند.
سری مدلهای Gemma گوگل با مدلهای Gemini آن متفاوت است زیرا گوگل کد منبع را برای Gemini در دسترس قرار نمیدهد، این کد توسط محصولات خود گوگل و همچنین در دسترس توسعهدهندگان است. در عوض، جما تلاش گوگل برای تقویت حسن نیت در جامعه توسعه دهندگان است، درست مانند آنچه متا در تلاش است با Llama انجام دهد.
Gemma 2 2B یک مدل سبک وزن برای تولید متن تحلیلی است که می تواند بر روی طیف وسیعی از سخت افزارها از جمله لپ تاپ ها و دستگاه های لبه اجرا شود. این مجوز برای برنامههای تحقیقاتی و تجاری خاص دارد و میتوان آن را از منابعی مانند کتابخانه مدل Vertex AI Google، پلتفرم علمی داده Kaggle و جعبه ابزار AI Studio Google دانلود کرد.
در مورد ShieldGemma، این مجموعهای از «طبقهبندیهای ایمنی» است که تلاش میکند سمیتهایی مانند سخنان مشوق نفرت، آزار و اذیت و محتوای جنسی صریح را تشخیص دهد. ShieldGemma که در بالای Gemma 2 ساخته شده است، می تواند برای فیلتر کردن درخواست های یک مدل تولیدی و همچنین محتوایی که مدل تولید می کند استفاده شود.
در نهایت، Gemma Scope به توسعه دهندگان این امکان را می دهد تا روی نقاط خاص یک مدل Gemma 2 «زوم» کنند و عملکرد درونی آن را قابل تفسیرتر کنند. گوگل چگونه آن را در یک پست وبلاگ توضیح میدهد: «[Gemma Scope از] شبکههای عصبی تخصصی تشکیل شده است که به ما کمک میکنند اطلاعات متراکم و پیچیده پردازش شده توسط Gemma 2 را باز کنیم و آنها را به شکلی گسترش دهیم که تجزیه و تحلیل و درک آن آسانتر باشد. با مطالعه این دیدگاههای توسعهیافته، محققان میتوانند به بینشهای ارزشمندی در مورد چگونگی شناسایی الگوها، پردازش اطلاعات و در نهایت پیشبینی Gemma 2 دست یابند.
انتشار مدلهای جدید Gemma 2 مدت کوتاهی پس از تایید وزارت بازرگانی ایالات متحده مدلهای هوش مصنوعی باز در گزارشی مقدماتی صورت میگیرد. در این گزارش آمده است که مدلهای باز در دسترس بودن هوش مصنوعی مولد را برای شرکتهای کوچکتر، محققان، سازمانهای غیرانتفاعی و توسعهدهندگان فردی گسترش میدهند، در حالی که نیاز به قابلیتهایی برای نظارت بر چنین مدلهایی برای خطرات احتمالی را برجسته میکنند.
ارسال نظر