متن خبر

غواصی عمیق در راه حل های هوش مصنوعی مولد درجه سازمانی ساختمان

غواصی عمیق در راه حل های هوش مصنوعی مولد درجه سازمانی ساختمان

شناسهٔ خبر: 807065 -




این مقاله راهنمای جامعی در مورد اصول اساسی، روش‌شناسی و بهترین شیوه‌ها برای پیاده‌سازی راه‌حل‌های هوش مصنوعی در محیط‌های سازمانی در مقیاس بزرگ ارائه می‌کند.

این مؤلفه‌های کلیدی معماری Gen AI، مانند پایگاه‌های داده برداری، جاسازی‌ها، و مهندسی سریع را پوشش می‌دهد و بینش‌های عملی را در مورد برنامه‌های کاربردی در دنیای واقعی ارائه می‌دهد.

این مقاله تکنیک‌های مهندسی سریع را با جزئیات تحلیل می‌کند و در مورد چگونگی بهینه‌سازی اعلان‌ها برای راه‌حل‌های موثر هوش مصنوعی مولد بحث می‌کند.

Retrieval Augmented Generation (RAG) را معرفی می‌کند و توضیح می‌دهد که چگونه می‌توان داده‌ها را از بازیابی داده جدا کرد تا عملکرد سیستم را بهبود بخشد.

یک مثال عملی با استفاده از کد پایتون گنجانده شده است که نحوه پیاده‌سازی RAG با LangChain، Chroma Database و OpenAI API را نشان می‌دهد و راهنمایی‌های عملی را برای توسعه‌دهندگان ارائه می‌دهد.

سال گذشته، شاهد بودیم که OpenAI با معرفی ChatGPT به مصرف کنندگان در سراسر جهان، چشم انداز فناوری را متحول کرد. این ابزار به سرعت در مدت کوتاهی پایگاه کاربران زیادی را به دست آورد و حتی از پلتفرم های رسانه های اجتماعی محبوب پیشی گرفت. ChatGPT با استفاده از هوش مصنوعی Generative، نوعی فناوری یادگیری عمیق، بر مصرف‌کنندگان تأثیر می‌گذارد و همچنین توسط بسیاری از شرکت‌ها برای هدف قرار دادن موارد استفاده تجاری بالقوه که قبلاً چالش‌های غیرممکن تلقی می‌شدند، استفاده می‌شود.

مروری بر هوش مصنوعی مولد در سازمانی –

نظرسنجی اخیری که توسط BCG با 1406 CXO در سطح جهانی انجام شد نشان داد که هوش مصنوعی مولد یکی از سه فناوری برتر (پس از امنیت سایبری و رایانش ابری) است که 89 درصد از آنها در نظر دارند برای سال 2024 در آن سرمایه گذاری کنند. محصولات Gen-AI یا سرمایه گذاری برای گفت ن خط تولید Gen-AI به فهرست دارایی های شرکت خود از ارائه دهندگان خارجی.

با رشد گسترده پذیرش Gen-AI در تنظیمات سازمانی، بسیار مهم است که یک معماری مرجع با معماری خوب به تیم مهندسی و معماران کمک کند تا نقشه‌های راه و بلوک‌های ساختمانی برای ساخت راه‌حل‌های Gen-AI ایمن و سازگار را شناسایی کنند. این راه حل ها نه تنها باعث ایجاد نوآوری می شوند، بلکه رضایت ذینفعان را نیز افزایش می دهند.

قبل از غواصی عمیق، باید بدانیم که هوش مصنوعی مولد چیست؟ برای درک هوش مصنوعی مولد، ابتدا باید چشم‌اندازی را که در آن عمل می‌کند، درک کنیم. این چشم‌انداز با هوش مصنوعی (AI) شروع می‌شود که به رشته‌ای از سیستم‌های کامپیوتری اشاره دارد که سعی می‌کنند رفتار انسان را تقلید کنند و وظایف را بدون برنامه‌نویسی صریح انجام دهند. یادگیری ماشین (ML) بخشی از هوش مصنوعی است که بر روی مجموعه داده عظیمی از داده های تاریخی عمل می کند و بر اساس الگوهایی که بر روی آن داده ها شناسایی کرده است، پیش بینی می کند. برای مثال، ML می‌تواند پیش‌بینی کند که مردم چه زمانی اقامت در هتل‌ها را در مقابل اقامت در خانه‌های اجاره‌ای از طریق AirBNB در فصول خاص بر اساس داده‌های گذشته ترجیح می‌دهند. یادگیری عمیق نوعی ML است که با استفاده از شبکه‌های عصبی عمیق مصنوعی، مشابه مغز انسان، به قابلیت‌های شناختی رایانه‌ها کمک می‌کند. این شامل لایه‌هایی از پردازش داده است که در آن هر لایه خروجی قبلی را اصلاح می‌کند و در نهایت محتوای پیش‌بینی تولید می‌کند. هوش مصنوعی مولد زیرمجموعه‌ای از تکنیک‌های یادگیری عمیق است که از الگوریتم‌های مختلف یادگیری ماشین و شبکه‌های عصبی مصنوعی برای تولید محتوای جدید مانند متن، صدا، ویدئو یا تصاویر، بدون دخالت انسان بر اساس دانشی که در طول آموزش کسب کرده است، استفاده می‌کند.

اهمیت راه حل های ایمن و سازگار Gen-AI –

همانطور که Gen-AI به فناوری نوظهور تبدیل می شود، بیشتر و بیشتر شرکت ها در تمام صنایع برای پذیرش این فناوری عجله دارند و توجه کافی به لزوم تمرین برای پیروی از هوش مصنوعی مسئول، هوش مصنوعی قابل توضیح و جنبه انطباق و امنیت از این فناوری ندارند. راه حل ها به همین دلیل ما شاهد مسائل مربوط به حریم خصوصی مشتری یا سوگیری در محتوای تولید شده هستیم. این افزایش سریع پذیرش GEN-AI نیازمند یک رویکرد آهسته و پیوسته است زیرا با قدرت زیاد، مسئولیت بیشتری نیز به همراه دارد. قبل از اینکه این حوزه را بیشتر تحلیل کنیم، می‌خواهم چند مثال را برای نشان دادن دلیل آن به اشتراک بگذارم

سازمان‌ها باید سیستم‌های مبتنی بر GEN-AI را مسئولانه و با رعایت اصول طراحی کنند، در غیر این صورت ممکن است خطر از دست دادن اعتماد عمومی به ارزش برند خود را داشته باشند. سازمان‌ها باید در حین ساخت، پیاده‌سازی، و بهبود منظم سیستم‌های Gen-AI و همچنین نظارت بر عملکرد آنها و محتوای تولید شده، از یک رویکرد متفکرانه و جامع پیروی کنند.

کاربردهای رایج و مزایای هوش مصنوعی مولد در تنظیمات سازمانی

سازمان های متمرکز بر فناوری می توانند از قدرت واقعی Gen-AI در توسعه نرم افزار با افزایش بهره وری و کیفیت کد استفاده کنند. آپشن های تکمیل خودکار و توصیه کد مبتنی بر هوش مصنوعی به توسعه‌دهندگان و مهندسان کمک می‌کند تا کد را کارآمدتر بنویسند، در حالی که اسناد کد و تولید از نظرات زبان طبیعی در هر زبانی می‌تواند فرآیند توسعه را ساده‌تر کند. سرنخ‌های فنی می‌توانند با استفاده از Gen-AI برای انجام بازبینی دستی تکراری، رفع اشکال و بهبود کیفیت کد، تلاش‌های توسعه قابل توجهی را کاهش دهند. این منجر به چرخه های توسعه و انتشار سریع تر و نرم افزار با کیفیت بالاتر می شود. همچنین، هوش مصنوعی محاوره ای برای مهندسی نرم افزار به فعال کردن تعاملات زبان طبیعی کمک می کند، که همکاری و ارتباط بین اعضای تیم را بهبود می بخشد. مدیران و صاحبان محصول می توانند از هوش مصنوعی Generative برای مدیریت چرخه عمر محصول، ایده پردازی، برنامه ریزی نقشه راه محصول و همچنین ایجاد داستان کاربر و نوشتن معیارهای پذیرش با کیفیت بالا استفاده کنند.

خلاصه کردن محتوا حوزه دیگری است که در آن هوش مصنوعی مولد، فناوری برتر هوش مصنوعی در حال استفاده است. این می تواند به طور خودکار تحلیل های معنی دار محصول، مقالات، گزارش های طولانی، رونوشت جلسات و ایمیل ها را خلاصه کند و در زمان و تلاش تحلیلگران صرفه جویی کند. هوش مصنوعی مولد همچنین با ایجاد یک نمودار دانش بر اساس بینش های کلیدی استخراج شده از متن و داده های بدون ساختار به تصمیم گیری آگاهانه و شناسایی روندها کمک می کند.

در پشتیبانی مشتری، هوش مصنوعی Generative به چت‌بات‌های مجازی کمک می‌کند که به مشتریان کمک می‌کنند، که تجربه کلی کاربر را افزایش می‌دهد. به عنوان مثال، در صنعت مراقبت های بهداشتی برای بیمارانی که با برنامه مواجه هستند، چت بات ها می توانند با ارائه پاسخ های همدلانه بیشتر بیمار محور باشند. این امر به سازمان کمک می کند تا رضایت مشتری بیشتری کسب کند. موتورهای جستجوی هوشمند سازمانی از هوش مصنوعی مولد برای ارائه سریع و دقیق اطلاعات مرتبط استفاده می کنند. سیستم‌های توصیه‌ای که توسط هوش مصنوعی Generative ارائه می‌شوند، رفتارهای کاربر را تجزیه و تحلیل می‌کنند تا پیشنهادات سفارشی‌سازی شده را ارائه دهند که تعامل و رضایت مشتری را بهبود می‌بخشد. همچنین، هوش مصنوعی Generative تجربه‌های مرکز تماس سرتاسری، خودکارسازی گردش کار و کاهش هزینه‌های عملیاتی را امکان‌پذیر می‌سازد. نمایندگان زنده می توانند از قابلیت خلاصه سازی برای درک سریع فرآیند یا رویه ها استفاده کنند و می توانند به سرعت مشتریان خود را راهنمایی کنند.

هوش مصنوعی مولد همچنین پیشرفت های قابل توجهی در کمک محتوا داشته است. این می تواند به تولید توضیحات محصول، کلمات کلیدی و ابرداده برای پلتفرم های تجارت الکترونیک، ایجاد محتوای بازاریابی جذاب و کمک به وظایف نوشتن محتوا کمک کند. همچنین می‌تواند با استفاده از پردازش زبان طبیعی (NLP) برای درک و تفسیر نیازهای کاربر، تصاویری را برای اهداف بازاریابی و برندسازی تولید کند.

در زمینه تحقیقات دانش و داده کاوی، هوش مصنوعی مولد برای تحقیقات دامنه خاص، تجزیه و تحلیل احساسات مشتری، تجزیه و تحلیل روند، و ایجاد بینش های متقابل استفاده می شود. همچنین نقش مهمی در کشف تقلب ایفا می کند و از توانایی خود برای تجزیه و تحلیل حجم وسیعی از داده ها و شناسایی الگوهایی که نشان دهنده فعالیت های تقلبی هستند، استفاده می کند.

پس می‌توانیم ببینیم که هوش مصنوعی مولد با فعال کردن اتوماسیون هوشمند و افزایش فرآیندهای تصمیم‌گیری، صنایع را متحول می‌کند. کاربردهای متنوع آن در توسعه نرم‌افزار، خلاصه‌سازی، هوش مصنوعی محاوره‌ای، کمک محتوا و تحقیقات دانش پتانسیل واقعی آن را در چشم‌انداز سازمانی نشان می‌دهد. اگر یک کسب و کار بتواند به سرعت هوش مصنوعی مولد را بپذیرد، در مسیر دستیابی به مزیت رقابتی و ایجاد نوآوری در صنایع مربوطه خود است.

همانطور که می توان مشاهده کرد که هوش مصنوعی مولد با ارتقای تجربیات مشتریان از محصولات یا بهبود بهره وری نیروی کار، ارزش تجاری قابل توجهی را برای هر سازمانی به ارمغان آورده است. شرکت‌هایی که در مسیر پذیرش راه‌حل‌های Gen-AI هستند، پتانسیل واقعی برای ایجاد فرآیندهای تجاری جدید برای هدایت نوآوری‌ها پیدا می‌کنند. ویژگی Co-Pilot محصولات یا نمایندگان Gen-AI این توانایی را دارند که یک زنجیره فکری را انجام دهند تا براساس دانش بیرونی مانند نتایج API یا خدمات برای تکمیل وظایف تصمیم گیری تصمیم گیری کنند. کاربردهای متعددی در صنایع مختلف وجود دارد.

نمودار زیر برخی از قابلیت هایی را نشان می دهد که می توان با استفاده از Gen-AI در مقیاس امکان پذیر بود.

اجزای اصلی معماری سازمانی برای هوش مصنوعی Generative دارای بلوک‌های ساختمانی متفاوتی هستند. در این بخش به سرعت برخی از مؤلفه ها مانند پایگاه داده برداری، مهندسی سریع و مدل زبان بزرگ (LLM) را لمس خواهیم کرد. در دنیای هوش مصنوعی یا یادگیری ماشین، داده ها در قالب عددی چند بعدی نشان داده می شوند که به آن Embedding یا Vector می گویند. پایگاه داده برداری برای ذخیره و بازیابی بردارهایی که جنبه های مختلف داده را نشان می دهند، بسیار مهم است و پردازش و تجزیه و تحلیل کارآمد را ممکن می سازد. Prompt Engineering بر طراحی اعلان‌های موثر برای هدایت خروجی مدل هوش مصنوعی تمرکز می‌کند و از پاسخ‌های مرتبط و دقیق از LLM اطمینان می‌دهد. مدل‌های زبان بزرگ به‌عنوان ستون فقرات هوش مصنوعی مولد عمل می‌کنند که از الگوریتم‌های مختلف (ترانسفورماتور یا GAN و غیره) استفاده می‌کند و مجموعه‌های داده وسیعی را از قبل آموزش می‌دهد تا محتوای دیجیتال پیچیده و منسجمی را در قالب متون یا صدا یا ویدیو تولید کند. این مؤلفه‌ها با هم کار می‌کنند تا عملکرد و عملکرد راه‌حل‌های هوش مصنوعی تولیدی را در تنظیمات سازمانی مقیاس‌پذیر کنند. در بخش های بعدی بیشتر تحلیل خواهیم کرد.

پایگاه داده برداری –

اگر پیشینه علم داده یا یادگیری ماشین دارید یا قبلاً با سیستم‌های ML کار کرده‌اید، به احتمال زیاد در مورد جاسازی‌ها یا بردارها اطلاعات دارید. به زبان ساده، تعبیه‌ها برای تعیین شباهت یا نزدیکی بین موجودیت‌ها یا داده‌های مختلف، خواه متون، کلمات، گرافیک، دارایی‌های دیجیتال یا هر قطعه اطلاعاتی باشند، استفاده می‌شوند. برای اینکه ماشین محتویات مختلف را بفهمد، به فرمت عددی تبدیل می‌شود. این نمایش عددی توسط یک مدل یادگیری عمیق دیگر محاسبه می شود که ابعاد آن محتوا را تعیین می کند.

بخش زیر تعبیه‌های معمولی را نشان می‌دهد که توسط مدل « text-embedding-ada-002-v2 » برای متن ورودی «راه‌حل با هوش مصنوعی مولد» که ابعاد 1536 دارد، ایجاد شده است.

«شیء»: «فهرست»
"داده ها": [
{
«شیء»: «جاسازی»
"شاخص": 0،
"جاسازی": [
-0.01426721،
-0.01622797،
-0.015700348،
0.015172725،
-0.012727121،
0.01788214،
-0.05147889،
0.022473885،
0.02689451،
0.016898194،
0.0067129326،
0.008470487،
0.0025008614،
0.025825003،
.
. <خیلی زیاد>…
.
0.032398902،
-0.01439555،
-0.031229576،
-0.018823305،
0.009953735،
-0.017967701،
-0.00446697،
-0.020748416
]
}

"model": "text-embedding-ada-002-v2"،
"استفاده": {
"prompt_tokens": 6،
"Total_Tokens": 6
}
}{

پایگاه‌های داده سنتی در هنگام ذخیره داده‌های برداری با ابعاد بالا در کنار انواع دیگر داده‌ها با چالش‌هایی مواجه می‌شوند، هرچند استثناهایی وجود دارد که در ادامه به آنها خواهیم پرداخت. این پایگاه داده ها همچنین با مسائل مقیاس پذیری دست و پنجه نرم می کنند. همچنین، آنها فقط زمانی نتایج را برمی‌گردانند که کوئری ورودی دقیقاً با متن ذخیره شده در فهرست مطابقت داشته باشد. برای غلبه بر این چالش ها، یک مفهوم پایگاه داده پیشرفته پدید آمده است که قادر است این داده های برداری با ابعاد بالا را به طور موثر ذخیره کند. این راه حل نوآورانه از الگوریتم هایی مانند K-th Nearest Neighbor (K-NN) یا Approximate Nearest Neighbor (A-NN) برای فهرست بندی و بازیابی داده های مرتبط، بهینه سازی برای کوتاه ترین مسافت ها استفاده می کند. این پایگاه‌های داده بردار وانیلی، فهرست‌های داده‌های مرتبط و مرتبط را در حین ذخیره نگه می‌دارند و پس در صورت افزایش تقاضا از سوی برنامه، به طور موثر مقیاس می‌شوند.

مفهوم پایگاه داده های برداری و جاسازی ها نقش مهمی در طراحی و توسعه برنامه های کاربردی هوش مصنوعی Enterprise Generative ایفا می کند. به عنوان مثال در موارد استفاده از QnA در داده‌های خصوصی موجود یا ساخت ربات‌های گفتگوی پایگاه داده Vector پشتیبانی از حافظه متنی را برای LLMها فراهم می‌کند. برای ساختن جستجوی سازمانی یا سیستم توصیه پایگاه داده های برداری استفاده می شود زیرا دارای قابلیت های قدرتمند جستجوی معنایی است.

دو نوع اصلی از پیاده‌سازی پایگاه داده برداری برای تیم مهندسی در حین ساخت برنامه‌های هوش مصنوعی بعدی وجود دارد: پایگاه‌های داده برداری خالص وانیلی و پایگاه‌های داده برداری یکپارچه در یک NoSQL یا پایگاه‌داده رابطه‌ای.

پایگاه داده برداری خالص وانیلی: یک پایگاه داده برداری خالص به طور خاص برای ذخیره و مدیریت کارآمد جاسازی های برداری، همراه با مقدار کمی ابرداده طراحی شده است. این به طور مستقل از منبع داده ای که جاسازی ها را تولید می کند عمل می کند، به این معنی که شما می توانید از هر نوع مدل یادگیری عمیق برای تولید Embedding با ابعاد مختلف استفاده کنید، اما همچنان می توانید آنها را به طور موثر در پایگاه داده بدون هیچ گونه تغییر یا ترفند اضافی در بردارها ذخیره کنید. محصولات منبع باز مانند پایگاه داده Weaviate، Milvus، Chroma پایگاه های داده برداری خالص هستند. پایگاه داده برداری محبوب مبتنی بر SAAS Pinecone همچنین یک انتخاب محبوب در میان جامعه توسعه دهندگان در هنگام ساخت برنامه های کاربردی هوش مصنوعی مانند جستجوی سازمانی، سیستم توصیه یا سیستم تشخیص تقلب است.

پایگاه داده برداری یکپارچه: از سوی دیگر، یک پایگاه داده برداری یکپارچه در یک NoSQL یا پایگاه داده رابطه ای عملکردهای بیشتری ارائه می دهد. این رویکرد یکپارچه امکان ذخیره سازی، نمایه سازی و جستجوی جاسازی ها را در کنار داده های اصلی فراهم می کند. با ادغام عملکرد پایگاه داده برداری و قابلیت جستجوی معنایی در زیرساخت پایگاه داده موجود، نیازی به کپی کردن داده ها در یک پایگاه داده برداری خالص جداگانه نیست. این ادغام همچنین عملیات داده های چندوجهی را تسهیل می کند و ثبات، مقیاس پذیری و عملکرد بیشتر داده ها را تضمین می کند. با این حال، این نوع پایگاه داده فقط می‌تواند انواع بردار مشابه را پشتیبانی کند، با ابعاد یکسانی که توسط همان نوع LLM ایجاد شده است. به عنوان مثال پسوند pgVector پایگاه داده PostGres را به یک پایگاه داده برداری تبدیل می کند اما شما نمی توانید داده های برداری با اندازه های مختلف مانند 512 یا 1536 را با هم ذخیره کنید. نسخه Enterprise Redis همراه با جستجوی برداری فعال است که پایگاه داده Redis noSQL را به یک پایگاه داده برداری با قابلیت تبدیل می کند. نسخه اخیر MongoDB از قابلیت جستجوی برداری نیز پشتیبانی می کند.

مهندسی سریع –

مهندسی سریع هنر ایجاد متن یا عبارات مختصر با پیروی از دستورالعمل ها و اصول خاص است. این اعلان‌ها به عنوان دستورالعمل‌هایی برای مدل‌های زبان بزرگ (LLM) عمل می‌کنند تا LLM را برای تولید خروجی دقیق و مرتبط راهنمایی کنند. این فرآیند بسیار مهم است زیرا اعلان‌های ضعیف می‌توانند منجر به ایجاد پاسخ‌های توهم‌آمیز یا نامربوط توسط LLM شوند. پس ، طراحی دقیق دستورات برای هدایت مدل به طور موثر ضروری است.

هدف مهندسی سریع این است که اطمینان حاصل شود که ورودی داده شده به LLM واضح، مرتبط و از نظر زمینه مناسب است. با پیروی از اصول مهندسی سریع، توسعه دهندگان می توانند پتانسیل LLM را به حداکثر برسانند و عملکرد آن را بهبود بخشند. به عنوان مثال، اگر قصد تولید خلاصه‌ای از یک متن طولانی است، باید به LLM دستور دهد که اطلاعات را به یک خلاصه و منسجم فشرده کند.

همچنین، مهندسی سریع به فعال کردن LLM برای نشان دادن قابلیت های مختلف بر اساس هدف عبارات ورودی کمک می کند. این قابلیت ها شامل خلاصه کردن متون گسترده، روشن کردن موضوعات، تبدیل متون ورودی یا گسترش اطلاعات ارائه شده است. توسعه دهندگان با ارائه اعلان های ساختاریافته می توانند توانایی LLM را در درک و پاسخگویی دقیق به پرس و جوها و درخواست های پیچیده افزایش دهند.

یک ساختار معمولی از هر درخواستی که به خوبی ساخته شده است، دارای بلوک‌های ساختمانی زیر خواهد بود تا اطمینان حاصل شود که زمینه کافی و زمان کافی برای فکر کردن به مدل برای تولید خروجی با کیفیت را فراهم می‌کند.

دستورالعمل و وظایف زمینه و مثال ها نقش (اختیاری) لحن (اختیاری) مرزها (اختیاری) فرمت خروجی (اختیاری)
دستورالعمل روشنی ارائه دهید و وظایفی را که LLM قرار است تکمیل کند را مشخص کنید زمینه ورودی و اطلاعات خارجی را فراهم کنید تا مدل بتواند وظایف را انجام دهد. اگر LLM باید نقش خاصی را برای تکمیل یک کار دنبال کند، باید به آن اشاره شود. سبک نوشتن را ذکر کنید، به عنوان مثال می توانید از LLM بخواهید که پاسخ را به زبان انگلیسی حرفه ای ایجاد کند. مدل نرده‌های محافظ و محدودیت‌هایی را که باید هنگام تولید خروجی تحلیل کنید، یادآوری کنید. اگر بخواهیم LLM خروجی را در قالب خاصی تولید کند. به عنوان مثال json یا xml و غیره، درخواست باید موارد ذکر شده را داشته باشد.

به طور خلاصه، مهندسی سریع نقش حیاتی ایفا می کند تا اطمینان حاصل شود که LLM ها خروجی معنادار و مناسبی را برای وظایفی که قرار است انجام دهند، تولید می کنند. با پیروی از اصول مهندسی سریع، توسعه دهندگان می توانند اثربخشی و کارایی LLM ها را در طیف وسیعی از کاربردها، از خلاصه کردن متن گرفته تا ارائه توضیحات و بینش دقیق، بهبود بخشند.

تکنیک ها یا الگوهای مهندسی سریع مختلفی وجود دارد که می توان از آنها در هنگام توسعه راه حل Gen-AI استفاده کرد. این الگوها یا تکنیک های پیشرفته، تلاش تیم مهندسی توسعه را کوتاه می کند و قابلیت اطمینان و عملکرد را ساده می کند.

درخواست صفر شات - درخواست صفر شات به نوعی از دستورات اشاره دارد که از مدل می‌خواهد برخی کارها را انجام دهد اما هیچ مثالی ارائه نمی‌کند. این مدل محتوا را بر اساس آموزش قبلی تولید می کند. این در کارهای ساده ساده NLP استفاده می شود. به عنوان مثال ارسال پاسخ ایمیل خودکار، خلاصه سازی متن ساده.

درخواست Few-Shot - در الگوی اعلان چند شات، چندین مثال در زمینه ورودی به LLM و یک دستورالعمل واضح ارائه می‌شود تا مدل بتواند از مثال‌ها بیاموزد و نوع پاسخ‌ها را بر اساس نمونه‌های ارائه شده تولید کند. این الگوی اعلان زمانی استفاده می‌شود که کار یک کار پیچیده باشد و دستور صفر شات نتواند نتایج لازم را ایجاد کند.

Chain-Of-Thought - الگوی سریع زنجیره ای فکر (CoT) در موارد استفاده مناسب است که در آن ما به LLM برای نشان دادن قابلیت های استدلال پیچیده نیاز داریم. در این رویکرد مدل فرآیند فکری خود را گام به گام قبل از ارائه پاسخ نهایی نشان می دهد. این رویکرد را می توان با تحریک چند شات ترکیب کرد، که در آن چند مثال برای راهنمایی مدل ارائه شده است تا به نتایج بهتری در کارهای پیچیده ای که نیاز به استدلال قبل از پاسخ دادن دارند، دست یابیم.

ReAct - در این الگو، LLMها به ابزارها یا سیستم خارجی دسترسی دارند. LLMها به این ابزارها دسترسی دارند تا داده‌هایی را که برای انجام وظیفه‌ای که انتظار داریم که بر اساس قابلیت‌های استدلال انجام دهد، واکشی کنند. ReAct در مواردی استفاده می شود که ما به LLM برای تولید فرآیند فکری متوالی نیاز داریم و بر اساس آن فرآیند داده های مورد نیاز خود را با دسترسی به منبع خارجی بازیابی می کند و پاسخ قابل اعتمادتر و واقعی تر را تولید می کند. الگوی ReAct در ارتباط با الگوی سریع زنجیره‌ای از فکر استفاده می‌شود که در آن LLM‌ها برای وظایف تصمیم‌گیری بیشتر مورد نیاز هستند.

ترغیب درخت افکار - در الگوی درخت اندیشه، LLM از یک رویکرد انسانی برای حل یک کار پیچیده با استفاده از استدلال استفاده می کند. شاخه های مختلف فرآیند فکر را ارزیابی می کند و سپس نتایج را برای انتخاب راه حل بهینه مقایسه می کند.

عملیات LLM -

همانطور که از نام گفته شد LLMOps به پلت فرم عملیاتی اشاره دارد که در آن مدل زبان بزرگ (اصطلاح دیگر مدل بنیادی است) در دسترس است و استنتاج از طریق الگوی API برای برنامه کاربردی برای تعامل با هوش مصنوعی یا بخش شناختی کل گردش کار در معرض دید قرار می گیرد. LLMOps به عنوان یک بلوک اصلی دیگر برای هر برنامه Gen-AI به تصویر کشیده شده است. این محیط مشترکی است که در آن دانشمندان داده، تیم مهندسی و تیم محصول به طور مشترک مدل‌های یادگیری ماشینی را می‌سازند، آموزش می‌دهند، استقرار می‌دهند و خط لوله داده را حفظ می‌کنند و مدل برای ادغام با سایر لایه‌های کاربردی در دسترس می‌شود.

سه رویکرد مختلف وجود دارد که پلتفرم LLMOps را می توان برای هر شرکتی راه اندازی کرد:

گالری مدل های بسته : در گالری مدل های بسته، پیشنهادات LLM کاملاً توسط ارائه دهندگان غول پیکر هوش مصنوعی مانند مایکروسافت، گوگل، OpenAI، Anthropic یا StableDiffusion و غیره کنترل می شود. این غول های فناوری مسئول آموزش و نگهداری مدل های خود هستند. آنها زیرساخت و همچنین معماری مدل ها و همچنین نیازهای مقیاس پذیری اجرای کل سیستم های LLMOps را مدیریت می کنند. مدل‌ها از طریق الگوهای API در دسترس هستند، جایی که تیم برنامه کلیدهای API را ایجاد می‌کند و مدل‌ها را برای استنتاج در برنامه‌ها ادغام می‌کند. مزایای این نوع GenAI Ops این است که شرکت‌ها نباید نگران حفظ هر نوع زیرساخت، مقیاس‌پذیری پلتفرم در هنگام افزایش تقاضا، ارتقای مدل‌ها یا ارزیابی رفتار مدل نباشند. با این حال، در رویکردهای مدل بسته، شرکت‌ها کاملاً به این غول‌های فناوری وابسته هستند و هیچ کنترلی بر روی نوع و کیفیت داده‌هایی که برای آموزش یا ارتقای آموزش LLM استفاده می‌شوند، ندارند، گاهی اوقات ممکن است مدل‌ها با عوامل محدودکننده نرخ مواجه شوند. زیرساخت شاهد افزایش شدید تقاضا است.

گالری مدل‌های منبع باز: در این رویکرد شما با استفاده از مدل‌های زبان بزرگ مدیریت شده توسط جامعه منبع باز از طریق HugginFace یا kaggle، گالری مدل خود را می‌سازید. در این رویکرد، شرکت‌ها مسئول مدیریت کل زیرساخت هوش مصنوعی هستند، چه به صورت پیش فرض یا در فضای ابری. آنها نیاز به ارائه مدل های منبع باز دارند و پس از استقرار موفقیت آمیز استنباط های مدل از طریق API برای سایر مؤلفه های Enterprise برای ادغام در برنامه های خود در معرض دید قرار می گیرند. معماری داخلی مدل، اندازه پارامترها، روش‌های استقرار و مجموعه داده‌های پیش‌آموزشی برای سفارشی‌سازی توسط جامعه منبع باز در دسترس عموم قرار می‌گیرد و پس شرکت‌ها کنترل کامل بر دسترسی، اعمال لایه تعدیل و کنترل مجوز دارند، اما در عین حال زمان کل هزینه مالکیت نیز افزایش می یابد.

رویکرد ترکیبی: امروزه رویکرد ترکیبی کاملاً رایج و ابری اصلی است

شرکت‌هایی مانند AWS یا Azure و GCP با ارائه گالری‌های بدون سرور بر این فضا تسلط دارند که در آن هر سازمانی می‌تواند مدل‌های منبع باز را از مخزن موجود مستقر کند یا از مدل‌های بسته این شرکت‌ها استفاده کند. Amazon Bedrock و Google Vertex پلتفرم‌های ترکیبی محبوب Gen-AI هستند که می‌توانید BYOM (مدل خود را بیاورید) یا از مدل بسته مانند Amazon Titan از طریق کنسول بستر یا Google Gemini از طریق Vertex استفاده کنید. رویکرد ترکیبی انعطاف‌پذیری را برای شرکت‌ها فراهم می‌کند تا کنترل‌هایی روی دسترسی داشته باشند و در عین حال می‌تواند از دسترسی مدل منبع باز با کیفیت بالا به روش مقرون‌به‌صرفه با اجرای زیرساخت‌های مشترک استفاده کند.

RAG یک چارچوب محبوب برای ساخت برنامه های کاربردی هوش مصنوعی در دنیای Enterprise است. در بیشتر موارد استفاده ای که در بالا تحلیل کردیم یک چیز مشترک دارد. در بیشتر موارد، مدل زبان بزرگ نیاز به دسترسی به داده‌های خارجی مانند داده‌های تجاری خصوصی سازمان یا مقالاتی در مورد فرآیندها و رویه‌های تجاری یا برای دسترسی توسعه نرم‌افزار به کد منبع دارد. همانطور که می‌دانید، مدل‌های زبان بزرگ با داده‌های جمع‌شده در دسترس عموم از اینترنت آموزش داده می‌شوند. پس اگر سوالی در مورد داده های خصوصی هر سازمانی پرسیده شود، نمی تواند پاسخ دهد و توهم نشان می دهد. توهم با یک مدل زبان بزرگ زمانی اتفاق می‌افتد که پاسخ هر پرس و جو یا متن ورودی را نمی‌داند و دستورالعمل واضح نیست. در آن سناریو تمایل به ایجاد پاسخ های نامعتبر و نامربوط دارد.

RAG همانطور که از نام پیداست سعی می کند این مشکل را با کمک به LLM برای دسترسی به دانش و داده های خارجی حل کند. اجزای مختلفی که چارچوب RAG را تامین می کنند عبارتند از:

بازیابی - هدف اصلی در این فعالیت واکشی مرتبط ترین و مشابه ترین محتوا یا تکه از پایگاه داده برداری بر اساس پرس و جوی ورودی است.

یک ugmented - در این فعالیت یک اعلان به خوبی ساخته شده ایجاد می شود تا زمانی که تماس با LLM برقرار می شود، دقیقاً بداند چه خروجی باید تولید کند و زمینه ورودی چیست.

G eneration - این ناحیه ای است که LLM وارد بازی می شود. هنگامی که مدل با زمینه خوب و کافی (ارائه شده توسط "بازیابی") و دارای مراحل واضح مشخص شده (ارائه شده توسط مرحله " گفت ه") ارائه می شود، پاسخی با ارزش بالا برای کاربر ایجاد می کند.

ما مؤلفه جذب داده را با بخش بازیابی جدا کرده‌ایم تا معماری را مقیاس‌پذیرتر کنیم، با این حال می‌توان هر دوی داده‌ها و بازیابی را برای موارد استفاده با حجم کم داده ترکیب کرد.

گردش کار بلع داده-

در این گردش کار، محتویات منابع داده‌های مختلف مانند گزارش‌های PDF، مقالات HTML یا هر داده رونوشت‌هایی از مکالمه با استفاده از استراتژی‌های تقسیم‌بندی مناسب، به‌عنوان مثال، تکه‌شدن با اندازه ثابت یا قطعه‌سازی آگاه از زمینه، تکه تکه می‌شوند. پس از تکه تکه شدن، محتوای تقسیم شده برای ایجاد جاسازی ها با فراخوانی LLMOهای مناسبی که شرکت شما راه اندازی کرده است، استفاده می شود – این می تواند یک مدل بسته باشد که دسترسی را از طریق API یا مدل منبع باز در حال اجرا در زیرساخت خود شما فراهم می کند. هنگامی که embedding ایجاد شد، در یک پایگاه داده برداری ذخیره می شود تا توسط برنامه در حال اجرا در بخش بازیابی مصرف شود.

گردش کار بازیابی داده -

در گردش کار بازیابی داده، درخواست کاربر از نظر توهین و تعدیل دیگر تحلیل می شود تا اطمینان حاصل شود که عاری از هرگونه داده سمی یا محتوای بی طرفانه است. لایه تعدیل همچنین تحلیل می‌کند تا اطمینان حاصل شود که کوئری داده‌های حساس یا خصوصی ندارد. پس از عبور از لایه تعدیل، با فراخوانی LLM تعبیه شده به embedding تبدیل می شود. هنگامی که یک سوال به جاسازی تبدیل می شود، از این برای انجام جستجوی شباهت در پایگاه داده برداری برای شناسایی محتوای مشابه استفاده می شود. متون اصلی و همچنین جاسازی تبدیل شده برای یافتن اسناد مشابه از پایگاه داده برداری استفاده می شود.

نتایج top-k برای ساخت یک اعلان کاملاً تعریف شده با استفاده از مهندسی سریع استفاده می‌شود و این به مدل LLM مختلف (به طور کلی مدل دستورالعمل) داده می‌شود تا پاسخ‌های معناداری برای کاربر ایجاد کند. پاسخ ایجاد شده مجدداً از لایه تعدیل عبور داده می شود تا اطمینان حاصل شود که حاوی محتوای توهم آمیز یا پاسخ مغرضانه و همچنین عاری از هرگونه داده نفرت انگیز یا داده های خصوصی است. هنگامی که تعدیل راضی شد، پاسخ با کاربر به اشتراک گذاشته می شود.

چالش ها و راه حل های RAG -

چارچوب RAG به عنوان مقرون به صرفه ترین راه برای ساخت سریع و ادغام هر گونه قابلیت Gen-AI در معماری سازمانی برجسته است. این با یک خط لوله داده یکپارچه شده است، پس نیازی به آموزش مدل ها با محتوای خارجی که مرتباً تغییر می کند وجود ندارد. برای موارد استفاده که دانش یا محتوای خارجی پویا است، RAG برای جذب و گفت ن داده‌ها به مدل بسیار مؤثر است. آموزش مدلی با داده های مکرر در حال تغییر بسیار گران است و باید از آن اجتناب کرد. اینها مهمترین دلایل محبوبیت RAG در بین جامعه توسعه هستند. دو فریمورک محبوب gen-ai پایتون LLamaIndex و LangChain آپشن های خارج از جعبه را برای توسعه Gen-AI با استفاده از رویکردهای RAG ارائه می‌کنند.

با این حال، چارچوب RAG مجموعه ای از چالش ها و مسائل خاص خود را دارد که باید در مراحل اولیه توسعه به آنها پرداخته شود تا پاسخ هایی که دریافت می کنیم با کیفیت بالا باشد.

مشکل تکه‌شدن: قطعه‌سازی بزرگ‌ترین نقش را برای سیستم RAG برای ایجاد پاسخ‌های مؤثر بازی می‌کند. هنگامی که اسناد بزرگ تکه تکه می شوند، معمولاً از الگوهای تکه تکه با اندازه ثابت استفاده می شود که اسناد با اندازه کلمه یا محدودیت اندازه کاراکتر ثابت تقسیم یا تکه تکه می شوند. وقتی یک جمله معنی دار به روش اشتباهی تکه تکه شود و در نهایت دو تکه حاوی دو جمله متفاوت با دو معنای متفاوت داشته باشیم، مشکلاتی را ایجاد می کند. هنگامی که این نوع تکه‌ها به جاسازی‌ها تبدیل می‌شوند و به پایگاه داده برداری داده می‌شوند، معنای معنایی را از دست می‌دهند و پس در طول فرآیند بازیابی قادر به تولید پاسخ‌های مؤثر نیست. برای غلبه بر این مسئله باید از یک استراتژی تقسیم بندی مناسب استفاده شود. در برخی از سناریوها، به جای استفاده از تکه تکه شدن با اندازه ثابت، بهتر است از تکه تکه سازی با آگاهی از متن یا قطعه بندی معنایی استفاده شود تا معنای درونی مجموعه بزرگی از اسناد حفظ شود.

مسئله بازیابی: عملکرد مدل های RAG به شدت به کیفیت اسناد متنی بازیابی شده از پایگاه داده برداری بستگی دارد. هنگامی که بازیابی نتواند مسیرهای مربوطه و صحیح را بیابد، به طور قابل توجهی توانایی مدل را برای ایجاد پاسخ های دقیق و دقیق محدود می کند. در برخی موقعیت‌ها، بازیابی‌کننده‌ها محتوای ترکیبی با اسناد مرتبط به همراه اسناد نامربوط را واکشی می‌کنند و این نتایج ترکیبی باعث می‌شود LLM در تولید محتوای مناسب با مشکل مواجه شود، زیرا وقتی با محتوای مربوط مخلوط می‌شود، نمی‌تواند داده‌های نامربوط را شناسایی کند. برای غلبه بر این مشکل، ما معمولاً از راه‌حل‌های سفارشی‌شده مانند به‌روزرسانی ابرداده با یک نسخه خلاصه‌شده از تکه‌ای که همراه با محتوای جاسازی ذخیره می‌شود، استفاده می‌کنیم. یکی دیگر از رویکردهای رایج استفاده از روش RA-FT (بازیابی تقویت شده با تنظیم دقیق) است که در آن مدل به گونه‌ای تنظیم شده است که بتواند محتوای نامربوط را هنگامی که با محتوای مربوطه مخلوط می‌شود شناسایی کند.

مشکل در وسط گم شده است : این مشکل زمانی اتفاق می افتد که LLM ها با اطلاعات بیش از حد به عنوان زمینه ورودی ارائه می شوند و همه اطلاعات مرتبط نیستند. حتی LLM های ممتاز مانند "Claude 3" یا "GPT 4" که دارای پنجره های زمینه بزرگ هستند، زمانی که با اطلاعات بیش از حد غرق می شوند و بیشتر داده ها به دستورالعمل ارائه شده توسط مهندسی سریع مربوط نمی شوند، با مشکل مواجه می شوند. به دلیل داده های ورودی بسیار زیاد، LLM نمی تواند پاسخ های مناسبی ایجاد کند. اگر اطلاعات مربوطه در ابتدای متن ورودی نباشد، عملکرد و کیفیت خروجی کاهش می یابد. این مشکل کلاسیک و آزمایش شده یکی از نقاط دردسر RAG در نظر گرفته می شود و تیم مهندسی را ملزم به ساخت دقیق مهندسی سریع و همچنین رتبه بندی مجدد محتویات بازیابی شده می کند تا مطالب مرتبط همیشه در ابتدا برای LLM باقی بماند. تولید محتوای با کیفیت بالا

همانطور که می بینید، اگرچه RAG مقرون به صرفه ترین و سریع ترین چارچوب برای طراحی و ساخت برنامه های Gen-AI است، اما در حین تولید پاسخ های با کیفیت بالا یا بهترین نتایج، از مشکلات زیادی نیز رنج می برد. کیفیت پاسخ LLM را می توان با رتبه بندی مجدد نتایج بازیابی شده از پایگاه های داده برداری، پیوست کردن محتویات خلاصه شده یا ابرداده به اسناد برای ایجاد جستجوی معنایی بهتر، و آزمایش مدل های تعبیه شده با ابعاد مختلف، تا حد زیادی بهبود بخشید. همراه با آن تکنیک های پیشرفته و ادغام برخی از رویکردهای ترکیبی مانند RA-FT، عملکرد RAG افزایش می یابد.

یک نمونه پیاده‌سازی RAG با استفاده از Langchain

در این بخش ما در ساخت یک برنامه مبتنی بر پارچه کوچک با استفاده از Langchain ، Database Chrima و API AI افتتاح خواهیم کرد. ما از پایگاه داده Chroma به عنوان پایگاه داده وکتور در حافظه خود استفاده خواهیم کرد که یک بانک اطلاعاتی سبک برای ساخت MVP (حداقل محصول قابل دوام) یا POC (اثبات مفهوم) برای تجربه این مفهوم است. Chromadb هنوز برای برنامه های درجه تولید ساختمان توصیه نمی شود.

من به طور کلی از Google Coll برای اجرای سریع هر کد پایتون استفاده می کنم. در صورت تمایل می توانید از همان استفاده کنید یا کد زیر را در Python IDE مورد علاقه خود امتحان کنید ..

مرحله 1: کتابخانه ها / ماژول های پایتون را نصب کنید

Langchain را نصب کنید
PIP نصب Langchain-Community Langchain-Core
! Pip نصب -u langchain -openai
! PIP نصب لنگچین کروما

    API OpenAi خدماتی است که به توسعه دهندگان امکان دسترسی و استفاده از مدل های بزرگ زبان OpenAI (LLMS) را در برنامه های خود می دهد.

    Langchain یک چارچوب منبع باز است که ساخت برنامه های LLM را برای توسعه دهندگان آسان می کند.

    Chromadb یک بانک اطلاعاتی وکتور منبع باز است که به طور خاص برای ذخیره و مدیریت بازنمایی بردار داده های متن طراحی شده است.

    "!" از اظهارات PIP اگر مستقیماً کد را از سریع فرمان خود اجرا می کنید.

مرحله 2: اشیاء مورد نیاز را وارد کنید

# ماژول های لازم را برای پردازش متن ، تعامل مدل و مدیریت پایگاه داده وارد کنید
از langchain.text_splitter import RecursiveCharacterTextSplitter
از langchain.chat_models ChatOpenAI را وارد کنید
از langchain.prompts وارد PromptTemplate
از langchain.chains واردات RetrievalQA
از Langchain_openai واردات Openaiembeddings ، Chatopenai
از Chroma واردات Langchain_chroma
واردات Chromadb
واردات pprint

# توضیحات استفاده از ماژول:
# repursivecharactertextsplitter: متن طولانی را بر اساس شخصیت های خاص به بخش های کوچکتر تقسیم می کند
# Chatopenai: با مدلهای بزرگ زبان Openai (LLM) به صورت مکالمه تعامل دارد
# PromptTemplate: الگوهای سریع ایجاد می کند
# بازیابی: رتریور را با زنجیره QA ترکیب می کند
# Openaiembeddings: با استفاده از LLM Openai تعبیه می شود
# Chroma: برای مدیریت داده های کارآمد با Chromadb در تعامل است
# PPRINT: Tidies Up Output

مرحله 3: مصرف داده ها

input_texts = [
"هوش مصنوعی (AI) در حال تغییر صنایع در سراسر جهان است. "
"AI ماشین ها را قادر می سازد از تجربه یاد بگیرند و کارهای انسانی مانند را انجام دهند."
"در مراقبت های بهداشتی ، الگوریتم های هوش مصنوعی می توانند به تشخیص بیماری هایی با دقت بالا کمک کنند."
"اتومبیل های خودران از AI برای حرکت در خیابان ها و جلوگیری از موانع استفاده می کنند."
"Chatbots با قدرت AI پشتیبانی مشتری را ارائه می دهد و تجربه کاربر را ارتقا می بخشد."
"تجزیه و تحلیل پیش بینی شده توسط هوش مصنوعی به مشاغل کمک می کند تا روند پیش بینی و تصمیم گیری های محور داده را انجام دهند."
"هوش مصنوعی همچنین از طریق تجارت خودکار و تشخیص کلاهبرداری در زمینه امور مالی متحول می شود."
"پردازش زبان طبیعی (NLP) به هوش مصنوعی اجازه می دهد تا زبان انسانی را درک و پاسخ دهد."
"در ساخت ، سیستم های هوش مصنوعی باعث افزایش کارایی و کنترل کیفیت می شوند."
"هوش مصنوعی در کشاورزی برای بهینه سازی عملکرد محصول و نظارت بر سلامت خاک استفاده می شود."
"آموزش توسط هوش مصنوعی از طریق سیستم های یادگیری شخصی و آموزش هوشمند تقویت می شود."
"روباتیک های AI محور وظایفی را انجام می دهند که برای انسان خطرناک یا یکنواخت است. "
"هوش مصنوعی در مدل سازی آب و هوا و نظارت بر محیط زیست به مبارزه با تغییرات آب و هوا کمک می کند."
"صنایع سرگرمی از هوش مصنوعی برای ایجاد محتوا و سیستم های توصیه استفاده می کنند."
"فن آوری های هوش مصنوعی برای توسعه شهرهای هوشمند اساسی هستند."
"ادغام هوش مصنوعی در مدیریت زنجیره تأمین ، تدارکات و کنترل موجودی را افزایش می دهد."
"تحقیقات AI همچنان به مرزها در یادگیری ماشین و یادگیری عمیق فشار می آورد."
"ملاحظات اخلاقی در توسعه هوش مصنوعی برای اطمینان از انصاف و شفافیت بسیار مهم است. "
"هوش مصنوعی در امنیت سایبری به تشخیص و پاسخ دادن به تهدیدات در زمان واقعی کمک می کند."
"آینده هوش مصنوعی پتانسیل پیشرفت ها و برنامه های حتی بیشتر در زمینه های مختلف را دارد."
]

# تمام عناصر موجود در فهرست را در یک رشته واحد با Newline به عنوان جداکننده ترکیب کنید
combined_text = "\ n" .join (input_texts)

# "recursivecharactertextsplitter" را انجام دهید تا داده ها بتوانند یک شیء "page_content" داشته باشند
# این کد متن را به بخش های جدا شده توسط "\ n" تقسیم می کند ، با هر بخش در یک تکه جداگانه.
text_splitter = RecursiveCharacterTextSplitter (جداکننده = ["\ n"] ، chunk_size = 1 ، chunk_overlap = 0)

chunk_texts = text_splitter.create_document ([combined_text])

مرحله 4: تعبیه و ذخیره در پایگاه داده Chroma

# API تعبیه شده را با کلید OpenAi API OpenAI_API_KEY = "SK-Proj-Rekm9uelh5ozqf533c2St3blbkfjtufxt2nm113b28lztjd" آغاز کنید . "
تعبیه = Openaiembeddings (OpenAI_API_KEY = OpenAI_API_KEY)

# دایرکتوری برای ادامه پایگاه داده Chroma
pancist_directory = "chroma_db"

# اسناد و تعبیه ها را در پایگاه داده محلی Chroma ذخیره کنید
db = Chroma.from_document (
اسناد = chunk_texts ،
embedding=جاسازی،
pancist_directory = pancist_directory
)

# پایگاه داده Chroma را از فهرست محلی بارگیری کنید
DB = Chroma (
pancist_directory = pancist_directory ،
تعبیه_فکت = تعبیه
)

# آزمایش تنظیمات را با یک پرس و جو نمونه آزمایش کنید
پرس و جو = "چگونه AI می تواند صنعت را دگرگون کند؟"
DOCS = DB.Similarity_Search (پرس و جو)

# اسناد بازیابی شده را چاپ کنید
چاپ (اسناد)

مرحله 5: اکنون ما مهندسی سریع را انجام خواهیم داد تا به LLM آموزش دهیم که چه چیزی را بر اساس زمینه ای که عرضه می کنیم تولید کنیم.

# الگوی سریع را تعریف کنید
الگوی = "" "
نقش: شما یک دانشمند هستید.
ورودی: از زمینه زیر برای پاسخ به سوال استفاده کنید.
زمینه: {context}
سوال: {سوال}
مراحل: به مودبانه پاسخ دهید و بگویید ، "امیدوارم که شما خوب باشید" ، سپس روی پاسخ به این سوال تمرکز کنید.
انتظار: پاسخ های دقیق و مرتبط را بر اساس زمینه ارائه شده ارائه دهید.
باریک کردن:
1. پاسخ های خود را به متن داده شده محدود کنید. فقط روی سؤالات مربوط به هوش مصنوعی تمرکز کنید.
2. اگر جواب را نمی دانید ، فقط بگویید ، "متاسفم ... من نمی دانم."
3. اگر کلمات یا سؤالاتی در خارج از متن هوش مصنوعی وجود دارد ، فقط بگویید "بیایید در مورد هوش مصنوعی صحبت کنیم."

پاسخ:

"""

# {زمینه} داده های حاصل از بردارهای پایگاه داده است که شباهت هایی با سوال دارند
# {سوال} سوالی است که به برنامه پرسیده می شود

# الگوی سریع را ایجاد کنید
PROMPT = PromptTemplate(
الگوی = الگوی ،
input_variables = ["زمینه" ، "سوال"]
)

مرحله ششم: استنتاج LLM را پیکربندی کنید و بازیابی را انجام دهید


# مقادیر پارامتر را تعریف کنید
دما = 0.2
param = {
"top_p": 0.4 ،
"فرکانس_پنیت": 0.1 ،
"requent_penalty": 0.7
}

# با پارامترهای مشخص شده یک شی LLM ایجاد کنید
llm = chatopenai (
دما = دما ،
OpenAi_api_Key = OpenAi_api_Key ،
model_kwargs = param
)

# با پارامترهای مشخص شده و الگوی سریع یک شیء بازیابی ایجاد کنید
qa_with_source = بازیابی .from_chain_type (
llm=llm،
Chain_Type = 'Stuff' ،
retriever = db.as_retriever (search_kwargs = {"k": 5})
Chain_Type_Kwargs = {"سریع": سریع} ،
Return_source_document = درست ،
)

# تنظیمات را با یک پرس و جو نمونه نمونه تست کنید = "چگونه AI صنعت را تغییر می دهد؟"
پاسخ = qa_with_source (پرس و جو)

# اسناد بازیابی شده و پاسخ را چاپ کنید
pprint.pprint (پاسخ)

خروجی نهایی -

[ سند (page_content = 'هوش مصنوعی (AI) در حال تغییر صنایع در سراسر جهان است. ")
سند (page_content = '\ n آینده AI پتانسیل پیشرفت ها و برنامه های حتی بیشتر در زمینه های مختلف را دارد.')
سند (page_content = '\ nin تولید ، سیستم های AI باعث افزایش کارآیی و کنترل کیفیت می شوند.)
سند (page_content = '\ nai همچنین در زمینه مالی از طریق تجارت خودکار و تشخیص کلاهبرداری انقلابی می کند.') ]

REARIVALQA روشی برای پاسخگویی به وظایف است که از یک فهرست برای بازیابی اسناد مربوطه یا قطعه های متنی استفاده می کند ، مناسب برای برنامه های ساده پاسخ به سؤال. Retrievalqachain ترکیب Retriever و یک زنجیره QA است. از آن برای واکشی اسناد از رتریور و سپس استفاده از زنجیره QA برای پاسخ به سؤالات بر اساس اسناد بازیابی شده استفاده می شود.

در پایان ، یک معماری مرجع قوی یک الزام اساسی برای سازمانهایی است که یا در حال ساخت راه حل های Gen-AI هستند یا فکر می کنند اولین قدم را انجام دهند. این به ساخت راه حل های هوش مصنوعی ایمن و سازگار کمک می کند. یک معماری مرجع به خوبی در این زمینه می تواند با پیروی از اصطلاحات استاندارد ، بهترین شیوه ها و رویکردهای معماری IT ، به تیم های مهندسی در حرکت در پیچیدگی های توسعه AI مولد کمک کند. این امر باعث افزایش استقرار فناوری می شود ، قابلیت همکاری را بهبود می بخشد و پایه و اساس محکمی برای اجرای مراحل حاکمیت و تصمیم گیری فراهم می کند. از آنجا که تقاضا برای هوش مصنوعی تولیدی همچنان در حال افزایش است ، بنگاه هایی که در توسعه سرمایه گذاری می کنند و به یک معماری مرجع جامع پایبند هستند ، در موقعیت بهتری برای برآورده کردن الزامات نظارتی ، بالا بردن اعتماد مشتری ، کاهش خطرات و ایجاد نوآوری در خط مقدم خود قرار می گیرند. صنایع مربوطه

خبرکاو

ارسال نظر

دیدگاه‌ها بسته شده‌اند.


تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است