متن خبر

باز کردن هوش مصنوعی مولد

باز کردن هوش مصنوعی مولد

شناسهٔ خبر: 457456 -




یک چهره دیجیتال در نمایه در برابر پس زمینه دیجیتال.
(اعتبار تصویر: Shutterstock / Ryzhi)

هوش مصنوعی مولد پتانسیل عظیمی برای متحول کردن کسب و کار، ایجاد فرصت های جدید و کارآمدتر کردن کارمندان در نحوه کارشان دارد. به گفته مک کینزی، بیش از یک چهارم از رهبران شرکت می گویند که هوش مصنوعی مولد یک دستور کار در سطح هیئت مدیره است در حالی که 79 درصد از افراد مورد تحلیل قبلا از هوش مصنوعی مولد استفاده کرده اند.

این فناوری‌ها در حال حاضر بر صنعت نرم‌افزار تأثیر می‌گذارند - IDC دریافت که 40 درصد از مدیران فناوری اطلاعات فکر می‌کنند هوش مصنوعی مولد «به ما امکان می‌دهد نرم‌افزارهای نوآورانه‌تری ایجاد کنیم» در حالی که GBK Collective تخمین می‌زند که 78 درصد از شرکت‌ها انتظار دارند از هوش مصنوعی برای توسعه نرم‌افزار در داخل استفاده کنند. سه تا پنج سال آینده طبق تحقیقات کنفرانس توسعه دهندگان بازی، حدود نیمی از شرکت‌های بازی‌های ویدیویی در حال حاضر از هوش مصنوعی مولد در فرآیندهای کاری خود استفاده می‌کنند.

همه این سیگنال ها نشان می دهد که هوش مصنوعی مولد در حال رشد است. با این حال، تعداد توسعه‌دهندگانی که مهارت‌های مناسبی برای کار روی کنار هم قرار دادن برنامه‌های کاربردی مبتنی بر هوش مصنوعی دارند، محدود است. برای شرکت‌هایی که می‌خواهند خدمات مبتنی بر هوش مصنوعی خود را بسازند و به‌جای استفاده از خدمات ارائه‌دهنده، یکپارچه‌سازی برای استفاده مؤثرتر از داده‌های شرکت ضروری است.

کارتر راباسا

رئیس روابط توسعه دهندگان در DataStax.

شکاف ها کجاست؟

پس چالش‌هایی که پیرامون هوش مصنوعی مولد وجود دارد چیست؟ اولین مورد درباره نحوه آماده سازی داده ها برای سیستم های هوش مصنوعی مولد است. دوم این است که چگونه این سیستم ها را با هم ادغام کنیم و چگونه نرم افزاری را پیرامون قابلیت های هوش مصنوعی مولد توسعه دهیم.

برای بسیاری از شرکت ها، هوش مصنوعی مولد به طور جدایی ناپذیری با مدل های زبان بزرگ (LLM) و خدماتی مانند ChatGPT مرتبط است. این ابزارها ورودی متن را می گیرند، آن را به یک پرس و جوی معنایی که سرویس می تواند بفهمد ترجمه می کند، و سپس پاسخ هایی را بر اساس داده های آموزشی ارائه می دهد. برای پرس و جوهای ساده، پاسخ ChatGPT می تواند کافی باشد. اما برای کسب و کارها، این سطح از دانش عمومی کافی نیست.

برای حل این مشکل، تکنیک هایی مانند Retrieval Augmented Generation (RAG) مورد نیاز است. RAG پوشش می دهد که چگونه شرکت ها می توانند داده های خود را دریافت کنند، آنها را برای پرس و جو در دسترس قرار دهند و سپس آن اطلاعات را برای گنجاندن به LLM تحویل دهند. این داده‌ها می‌توانند در قالب‌های متعدد، از پایگاه‌های دانش شرکت یا کاتالوگ محصولات گرفته تا متن در فایل‌های PDF یا اسناد دیگر وجود داشته باشند. داده ها باید جمع آوری شوند و به بردارهایی تبدیل شوند که داده ها را به مقادیر عددی کدگذاری می کنند که اطلاعات و روابط معنایی را حفظ می کنند.

این فرآیند شامل فرآیندی به نام chunking است - تقسیم متن شما به واحدهای گسسته که سپس می توانند توسط بردارها نمایش داده شوند. در اینجا چندین رویکرد ممکن است، از نگاه کردن به تک تک کلمات گرفته تا جملات یا پاراگراف ها. هرچه حجم داده ای که استفاده می کنید کوچکتر باشد، ظرفیت و هزینه بیشتری را می طلبد. برعکس، هرچه هر تکه بزرگتر باشد، داده های دقیق تری خواهید داشت. خرد کردن داده‌ها هنوز یک حوزه بسیار جدید است و بهترین روش‌ها هنوز در اینجا در حال توسعه هستند، پس ممکن است لازم باشد رویکرد خود را آزمایش کنید تا به بهترین نتایج برسید.

هنگامی که داده های شما تکه تکه شد و به بردار تبدیل شد، باید آن را به عنوان بخشی از سیستم هوش مصنوعی مولد خود در دسترس قرار دهید. هنگامی که یک درخواست کاربر وارد می شود، به یک بردار تبدیل می شود که می تواند برای انجام جستجو در داده های شما استفاده شود. در مقایسه درخواست جستجوی کاربر با داده های برداری شرکت خود، می توانید بهترین تطابق معنایی را پیدا کنید. سپس می‌توان این تطابق‌ها را در LLM شما به اشتراک گذاشت و برای ارائه زمینه زمانی که LLM پاسخی را برای کاربر ایجاد می‌کند، استفاده کرد.

داده‌های RAG دو مزیت اصلی دارند - اول اینکه به شما امکان می‌دهد اطلاعاتی را برای پردازش به سرویس LLM خود ارائه دهید، اما بدون گفت ن آن داده‌ها به LLM تا بتوان از آن در هر پاسخ دیگری استفاده کرد. این بدان معناست که می‌توانید از هوش مصنوعی مولد با داده‌های حساس استفاده کنید، زیرا RAG به شما اجازه می‌دهد کنترل نحوه استفاده از آن داده‌ها را حفظ کنید. ثانیاً، می‌توانید داده‌های حساس به زمان بیشتری را نیز در پاسخ‌های خود ارائه دهید - می‌توانید داده‌ها را در پایگاه داده برداری خود به‌روزرسانی کنید تا تا حد امکان به‌روز باشد، سپس در صورت درخواست مناسب، آن را با مشتریان به اشتراک بگذارید.

پیاده سازی RAG یک چالش بالقوه است، زیرا بر سیستم های متعددی متکی است که در حال حاضر بسیار جدید هستند و به سرعت در حال توسعه هستند. تعداد توسعه‌دهندگانی که با تمام فناوری‌های درگیر آشنا هستند - خرد کردن داده‌ها، جاسازی‌های برداری، LLM و موارد مشابه - هنوز نسبتاً کم است و تقاضای زیادی برای این مهارت‌ها وجود دارد. پس ، تسهیل کار برای توسعه دهندگان بیشتر با RAG و هوش مصنوعی مولد به همه کمک خواهد کرد.

اینجاست که می تواند چالش هایی برای توسعه دهندگان ایجاد کند. هوش مصنوعی مولد بیشترین ارتباط را با پایتون دارد، زبان نرم افزاری که توسط دانشمندان داده هنگام ساخت خطوط لوله داده استفاده می شود. با این حال، طبق تحقیقات Stack Overflow برای سال 2023، پایتون در فهرست محبوب‌ترین زبان‌ها تنها سوم است. گسترش پشتیبانی از زبان‌های دیگر مانند جاوا اسکریپت (معروف‌ترین زبان برنامه‌نویسی) به توسعه‌دهندگان بیشتری اجازه می‌دهد تا در ساخت برنامه‌های هوش مصنوعی مولد یا ادغام آنها مشارکت کنند. با سیستم های دیگر

انتزاع هوش مصنوعی با API

یکی از رویکردهایی که می تواند این فرآیند را آسان تر کند، پشتیبانی از API هایی است که توسعه دهندگان می خواهند با آنها کار کنند. با مشاهده رایج‌ترین زبان‌ها و ارائه API برای آنها، توسعه‌دهندگان می‌توانند سریع‌تر و کارآمدتر با هوش مصنوعی مولد دست یابند.

این همچنین به حل یکی دیگر از مشکلات بزرگ‌تر توسعه‌دهندگان در زمینه هوش مصنوعی مولد کمک می‌کند - اینکه چگونه می‌توان همه اجزای سازنده را به طور مؤثر با هم کار کرد. برنامه‌های کاربردی هوش مصنوعی طیف گسترده‌ای از موارد استفاده را پوشش می‌دهند، از گسترش ربات‌های خدمات مشتری یا توابع جستجوی امروزی به عوامل مستقل‌تر که می‌توانند فرآیندهای کاری کامل یا درخواست‌های مشتری را انجام دهند. هر یک از این مراحل شامل چندین مؤلفه است که با هم کار می کنند تا یک درخواست را برآورده کنند.

اگر نتوانیم با استفاده از API ها این کار را انتزاع کنیم، این کار یکپارچه سازی هزینه بالایی خواهد داشت. هر ارتباط بین اجزای سیستم باید مدیریت شود، به روز شود و تغییر داده شود زیرا عملکردهای بیشتری درخواست می شود یا عناصر جدید بیشتری به برنامه هوش مصنوعی اضافه می شوند. با استفاده از APIهای استاندارد شده در عوض، مدیریت کار برای توسعه دهندگان در طول زمان آسان تر خواهد شد. این همچنین هوش مصنوعی مولد را به روی توسعه‌دهندگان بیشتری باز می‌کند، زیرا آنها می‌توانند با مؤلفه‌ها از طریق APIها به‌عنوان سرویس کار کنند، به‌جای اینکه مجبور باشند نمونه‌های خود را برای داده‌های برداری، یکپارچه‌سازی داده‌ها یا قطعه‌سازی ایجاد و اجرا کنند. توسعه‌دهندگان همچنین می‌توانند LLM را انتخاب کنند که می‌خواهند با آن کار کنند و اگر جایگزین بهتری پیدا کردند، به جای اینکه به یک LLM خاص گره بخورند، آن را تغییر دهند.

این همچنین ادغام سیستم‌های هوش مصنوعی مولد را در چارچوب‌های توسعه‌دهنده فرانت‌اند مانند React و Vercel آسان‌تر می‌کند. توانمندسازی توسعه‌دهندگان برای پیاده‌سازی هوش مصنوعی مولد در برنامه‌ها و وب‌سایت‌های خود، طراحی و تحویل جلویی را با زیرساخت‌های بک‌اند ترکیب می‌کند، پس ساده‌سازی پشته برای مشارکت بیشتر توسعه‌دهندگان ضروری است. اگر شرکت‌ها بخواهند از هوش مصنوعی مولد در کسب‌وکار خود استفاده کنند، آسان‌تر کردن کار با مجموعه کامل فناوری‌های Retrieval Augmented Generation - یا RAGStack - مورد نیاز است.

ما بهترین نویسنده هوش مصنوعی را معرفی کرده ایم.

این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، اطلاعات بیشتری را در اینجا بیابید: https://www.techradar.com/news/submit-your-story-to-techradar-pro

کارتر راباسا رئیس روابط توسعه‌دهنده در DataStax است، جایی که او تیمی را رهبری می‌کند که توسعه‌دهندگان را برای ساخت برنامه‌های هوش مصنوعی مولد بلادرنگ تجهیز می‌کند. کارتر همچنین کنفرانس توسعه دهندگان CascadiaJS را رهبری می کند و مشاور Heavybit است.

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است