10 ترند برتر هوش مصنوعی
طبق نظر کارشناسان صنعت، سال 2024 قرار بود سالی فوقالعاده برای هوش مصنوعی مولد باشد. کاربردهای عملی در حال ظهور بودند، فناوری موانع ورود را کاهش میداد و به نظر میرسید که هوش مصنوعی عمومی به زودی در دسترس خواهد بود.
پس… آیا این پیشبینیها به واقعیت پیوستند؟
خب، تا حدی. حالا که به پایان سال 2024 نزدیک میشویم، میتوان گفت برخی از این پیشبینیها به حقیقت پیوستهاند، در حالی که برای بقیه هنوز کمی زمان نیاز است (به هوش مصنوعی عمومی اشاره میکنم).
در اینجا، نظرات Tomasz Tunguz، آیندهپژوه و سرمایهگذار، درباره وضعیت داده و هوش مصنوعی در پایان 2024 را میبینید بهعلاوه چند پیشبینی از Barr Moses.
ترندهای مهندسی داده برای سال 2025 در راهاند.
1. ما در دنیایی بدون استدلال زندگی میکنیم. “Tomasz Tunguz“
در سه سال اول دنیای دیستوپیایی (غیرواقعی و تاریک) هوش مصنوعی، شاهد رشد کسبوکارها در برخی از حوزههایی هستیم که انتظار داشتیم ارزش ایجاد کنند — اما نه در همه آنها. طبق نظر Tomasz Tunguz ، وضعیت فعلی هوش مصنوعی را میتوان به سه دسته تقسیم کرد:
1. Prediction (پیشبینی): هوش مصنوعیهای همکار که میتوانند جملات را کامل کنند، خطاهای کد را تصحیح کنند و غیره.
2. Search (جستجو): ابزارهایی که از یک مجموعه داده برای پاسخ به سوالات استفاده میکنند.
3. Reasoning (استدلال): یک گردش کار چند مرحلهای که میتواند وظایف پیچیده را انجام دهد.
در حالی که هوش مصنوعیهای همکار و جستجو موفقیتهای متوسطی (به ویژه در مورد اول) در سازمانهای بزرگ داشتهاند، مدلهای استدلال هنوز به نظر میرسد که عقب ماندهاند. و طبق گفته Tomasz، دلیل واضحی برای این موضوع وجود دارد:
مدلهای کنونی دقت کافی ندارند.
Tomasz توضیح میدهد که این مدلها در تقسیم وظایف به مراحل مؤثر مشکل دارند، مگر اینکه الگوی خاصی را بارها و بارها مشاهده کرده باشند. این موضوع برای بسیاری از کارهایی که این مدلها میتوانند انجام دهند، صدق نمیکند.
به عنوان مثال اگر امروز از یک مدل بزرگ خواسته شود که یک نمودار FP&A (برنامهریزی مالی و تجزیه و تحلیل) تولید کند، میتواند این کار را انجام دهد. اما اگر بخواهیم چیزی جدید تولید کند ، مثلاً اگر بخواهیم از یک روش صورتحساب جدید استفاده کنیم ، مدل ممکن است نتواند به درستی عمل کند و گمراه شود.
بنابراین فعلاً به نظر میرسد که هوش مصنوعیهای همکار و نتایج جستجوی نیمهدقیق، پیروز میدان هستند.
2. فرایند مهمتر از ابزار است “Barr Moses“
یک ابزار جدید به اندازه فرایند پشتیبان آن خوب است.
با پیشرفت “مدل داده مدرن” در سالهای اخیر، تیمهای داده گاهی اوقات در وضعیتی از بررسی بیپایان قرار میگیرند. آنها بیش از حد بر روی چیستی پلتفرم خود تمرکز میکنند و کمتر به چگونگی آن توجه میکنند، که ممکن است به مراتب مهمتر باشد.
اما با نزدیک شدن تدریجی سازمانها به (هوش مصنوعی آماده برای تولید)، یادگیری چگونگی استفاده از این ابزارهای جدید هر روز ضروریتر میشود.
مثال کیفیت داده
بیایید به کیفیت داده توجه کنیم. با اینکه دادههای تغذیهکننده هوش مصنوعی در سال 2024 به موضوع اصلی تبدیل شدند، کیفیت داده نیز به کانون توجه آمد. رهبران داده در سازمانها زمان ندارند تا از منوی کیفیت داده انتخاب کنند
“مثلاً چند آزمایش DBT و چند راهحل جداگانه.
آنها موظفند که به سرعت ارزش را ارائه دهند و به راهحلهای قابل اعتماد نیاز دارند که بتوانند بهطور مؤثر پیادهسازی کنند.
واقعیت این است که شما ممکن است پیشرفتهترین پلتفرم کیفیت داده را داشته باشید. با بهترین اتوماسیونها و ادغامهای شگفتانگیز، اما اگر نتوانید سازمان خود را به سرعت راهاندازی کنید، در واقع فقط یک مورد در بودجهتان و یک زبانه جدید در دسکتاپتان دارید.
آینده تیمهای داده
در 12 ماه آینده، انتظار میرود تیمهای داده به سمت راهحلهای جامع و اثباتشده بروند تا چالشهای مهمتری مانند مالکیت کیفیت داده، مدیریت حوادث و توانمندسازی درازمدت حوزه را در اولویت قرار دهند.
و راهحلی که بر این اولویتها موفق عمل کند، راهحلی است که در دنیای هوش مصنوعی پیروز خواهد شد.
3. هوش مصنوعی ROI را بهبود میبخشد ، اما نه درآمد! “Tomasz Tunguz“
مانند هر محصول دادهای، ارزش GenAI (هوش مصنوعی جنرالی) به دو شکل به دست میآید: کاهش هزینهها یا ایجاد درآمد.
درآمد
در سمت درآمد، ممکن است ابزارهایی مانند AI SDRs (نمایندگان فروش هوش مصنوعی)، ماشینهای غنیسازی داده یا سیستمهای پیشنهاددهی وجود داشته باشد. طبق گفته Tomasz، این ابزارها میتوانند حجم زیادی از پایپلاین فروش تولید کنند، اما این پایپلاین معمولاً سالم نیست. بنابراین، اگر هوش مصنوعی نمیتواند درآمد ایجاد کند، باید به کاهش هزینهها بپردازد — و در این زمینه، این فناوری نوپا موفقیتهایی داشته است.
“تعداد کمی از شرکتها از این طریق کسبوکار جدیدی به دست میآورند. بیشتر به کاهش هزینهها مربوط میشود. Klarna دو سوم از نیروی کار خود را کاهش داد. Microsoft و ServiceNow شاهد افزایش 50 تا 75 درصدی در بهرهوری مهندسی بودهاند.”
معیارهای کاهش هزینه
Tomasz توضیح میدهد که یک مورد استفاده از هوش مصنوعی برای کاهش هزینهها زمانی مؤثر است که یکی از سه معیار زیر برآورده شود:
1. مشاغل تکراری: کارهایی که بهطور مکرر انجام میشوند.
2. بازار کار چالشبرانگیز: زمانی که پیدا کردن نیروی کار مناسب سخت باشد.
3. نیازهای فوری استخدام: زمانی که به سرعت به کارمندان جدید نیاز دارند.
مثال موفق
یک نمونه از شرکتی که بهخوبی درآمد جدیدی را ایجاد کرده، EvenUp است. یک شرکت حقوقی که نامههای تقاضا را بهصورت خودکار تولید میکند. سازمانهایی مانند EvenUp که خدمات تخصصی و الگوهای مشخص را ارائه میدهند، ممکن است بهطور منحصر به فردی از تأثیر هوش مصنوعی در شکل کنونی خود بهرهمند شوند.
4. پذیرش هوش مصنوعی کندتر از حد انتظار است، اما رهبران صبر میکنند. “Tomasz Tunguz“
در مقایسه با طوفانی از “استراتژیهای هوش مصنوعی” که سال گذشته مورد استقبال قرار گرفت، به نظر میرسد رهبران امروز یک قدم به عقب از این فناوری برداشتهاند.
تغییرات در رویکرد
“سال گذشته، موجی از هیجان وجود داشت که مردم سعی میکردند انواع نرمافزارها را فقط برای آزمایش ببینند. هیئتمدیرهها درباره استراتژی هوش مصنوعی سوال میکردند. اما حالا تغییرات زیادی در آن موج اولیه ایجاد شده است.”
برخی سازمانها به سادگی نتوانستهاند ارزش لازم را از آزمایشات اولیه خود بگیرند، در حالی که دیگران با تکامل سریع فناوریهای زیرساختی آن مشکل داشتهاند. طبق گفته Tomasz، این یکی از بزرگترین چالشها برای سرمایهگذاری در شرکتهای هوش مصنوعی است. مشکل این نیست که فناوری بهطور نظری ارزشمند نیست، بلکه سازمانها هنوز نتوانستهاند یاد بگیرند که چگونه بهطور مؤثر از آن استفاده کنند.
موج جدید پذیرش
Tomasz معتقد است که موج بعدی پذیرش هوش مصنوعی متفاوت از اولی خواهد بود، زیرا رهبران اطلاعات بیشتری درباره نیازهای خود خواهند داشت و میدانند که کجا باید به دنبال آن باشند.
آمادهسازی برای فرصتها
مانند یک تمرین قبل از نمایش بزرگ، تیمها میدانند که چه چیزی را جستجو میکنند، برخی از مشکلات را با بخشهای قانونی و تأمین، بهویژه در زمینه از دست دادن داده و پیشگیری، حل کردهاند و آمادهاند تا وقتی فرصت مناسب پیش میآید، عمل کنند.
چالشهای آینده
چالش بزرگ فردا؟ “چگونه میتوانم ارزش را سریعتر پیدا کنم و به فروش برسانم؟”
5. دادههای کوچک، آینده هوش مصنوعی هستند. “Tomasz Tunguz“
بحث درباره منابع باز و مدیریت شده داستانی قدیمی است، اما وقتی به هوش مصنوعی میرسیم، این سوال پیچیدهتر میشود.
هزینههای عملیاتی در سطح سازمانی
در سطح سازمانی، این فقط یک سوال درباره کنترل یا قابلیت همکاری نیست، اگرچه این موارد هم مهم هستند ، بلکه سوال اصلی هزینههای عملیاتی است. Tomasz معتقد است که بزرگترین شرکتهای B2C به مدلهای از پیش ساخته شده متکی خواهند بود، در حالی که شرکتهای B2B به سمت مدلهای اختصاصی و منبع باز خود خواهند رفت.
“در B2B، شما مدلهای کوچکتری خواهید دید و بیشتر به سمت منابع باز میرویم. این به این دلیل است که اجرای یک مدل کوچک منبع باز بسیار ارزانتر است.”
بهبود عملکرد با مدلهای کوچک
اما همه چیز فقط به هزینه مربوط نمیشود. مدلهای کوچک همچنین عملکرد بهتری دارند. مانند Google، مدلهای بزرگ برای پاسخ به انواع مختلف درخواستها طراحی شدهاند. کاربران میتوانند هر چیزی را از یک مدل بزرگ بپرسند، بنابراین آن مدل نیاز دارد که بر روی دادههای زیادی آموزش ببیند تا پاسخهای مرتبطی ارائه کند، از واترپولو تا تاریخ چین و نان فرانسوی.
با این حال، هر چه تعداد موضوعاتی که یک مدل آموزش میبیند بیشتر باشد، احتمال اشتباه در ترکیب مفاهیم نیز بیشتر میشود و خروجیها به مرور زمان خطاهای بیشتری خواهند داشت.
“شما میتوانید چیزی مانند Llama 2 با 8 میلیارد پارامتر را بگیرید و با 10,000 تیکت پشتیبانی تنظیم کنید و عملکرد آن بسیار بهتر خواهد شد” Tomasz.
چالشهای حقوقی و تأثیر آن بر مدلهای اختصاصی
علاوه بر این، ChatGPT و دیگر راهحلهای مدیریت شده بهطور مکرر در دادگاهها به چالش کشیده میشوند به خاطر ادعاهایی مبنی بر اینکه سازندگان آنها حق قانونی استفاده از دادههایی که این مدلها بر اساس آن آموزش دیدهاند را نداشتند. این ادعاها در بسیاری از موارد احتمالاً درست است.
این موضوع، همراه با هزینه و عملکرد، احتمالاً بر پذیرش طولانیمدت مدلهای اختصاصی تأثیر خواهد گذاشت، بهویژه در صنایع با مقررات سختگیرانه اما شدت این تأثیر هنوز مشخص نیست.
رقابت قیمت در بازار
البته، مدلهای اختصاصی نیز بیتحرک نیستند. اگر Sam Altman چیزی برای گفتن داشته باشد (و اگر توییتر چیزی به ما آموخته باشد، قطعاً Sam Altman چیزهای زیادی برای گفتن دارد).
مدلهای اختصاصی بهطور تهاجمی قیمتها را کاهش میدهند تا تقاضا را افزایش دهند. مدلهایی مانند ChatGPT قبلاً قیمتها را حدود 50 درصد کاهش دادهاند و انتظار دارند در 6 ماه آینده 50 درصد دیگر نیز کاهش یابند. این کاهش هزینه میتواند یک کمک بسیار مورد نیاز برای شرکتهای B2C باشد که امیدوارند در رقابتهای هوش مصنوعی پیشی بگیرند.
6. مرزها برای تحلیلگران و مهندسان داده در حال کمرنگ شدن است ” Barr Moses”
وقتی صحبت از مقیاسبندی تولید پایپلاین میشود، معمولاً دو چالش وجود دارد که تیمهای داده با آن مواجه میشوند: تحلیلگرانی که تجربه فنی کافی ندارند و مهندسان داده که زمان کافی ندارند.
این به نظر میرسد که یک مشکل برای هوش مصنوعی باشد.
تحولات آینده تیمهای داده
با نگاهی به چگونگی تکامل تیمهای داده، دو تحول اصلی وجود دارد که به نظر میرسد میتواند منجر به همگرایی مسئولیتهای مهندسی و تحلیلی در سال 2025 شود:
1. افزایش تقاضا: با افزایش تمایل رهبران کسبوکار به داده و محصولات هوش مصنوعی، تیمهای داده باید بیشتر با منابع کمتر کار کنند. برای کاهش گلوگاهها، رهبران به طور طبیعی تیمهای تخصصی قبلی را توانمند میسازند تا مسئولیتهای بیشتری را برای پایپلاینها و ذینفعان خود بپذیرند.
2. بهبود در اتوماسیون: تقاضای جدید همیشه نوآوریهای جدیدی را به همراه دارد. (در این مورد، به معنی پایپلاینهای هوش مصنوعیمحور است.) با اتوماتیک شدن طبیعی تکنولوژیها، مهندسان قادر خواهند بود بیشتر با منابع کمتر کار کنند و تحلیلگران نیز قادر خواهند بود مستقلتر عمل کنند.
نتیجهگیری
استدلال ساده است. با افزایش تقاضا، اتوماسیون پایپلاین به طور طبیعی برای پاسخ به این تقاضا تکامل مییابد. هر چه اتوماسیون پایپلاین برای پاسخ به تقاضا تکامل یابد، موانع ایجاد و مدیریت این پایپلاینها کاهش مییابد. شکاف مهارتی کاهش یافته و توانایی افزودن ارزش جدید افزایش مییابد.
حرکت به سمت مدیریت پایپلاینهای هوش مصنوعیمحور خودخدمت، به این معنی است که دردناکترین بخش کار هر کسی به طور خودکار انجام میشود و توانایی آنها برای ایجاد و نشان دادن ارزش جدید در این فرآیند گسترش مییابد. به نظر میرسد آیندهای دلنشین باشد.
7. دادههای مصنوعی اهمیت دارند اما هزینه دارند “Tomasz Tunguz“
شاید تصویر یک مار که دم خود را میخورد را دیده باشید. اگر به دقت نگاه کنید، شباهت زیادی به هوش مصنوعی معاصر دارد.
چالشهای دادههای آموزشی
در حال حاضر حدود 21 تا 25 تریلیون توکن (کلمه) در اینترنت وجود دارد. مدلهای هوش مصنوعی که در حال حاضر در حال کار هستند، از همه آنها استفاده کردهاند. برای اینکه دادهها به تکامل خود ادامه دهند، به مجموعه دادهای به مراتب بزرگتر نیاز دارند. هر چه داده بیشتری داشته باشند، زمینه بیشتری برای تولید خروجیها فراهم میشود و خروجیها دقیقتر خواهند بود.
اما وقتی پژوهشگران هوش مصنوعی با کمبود دادههای آموزشی مواجه میشوند، چه میکنند؟
تولید دادههای مصنوعی
آنها دادههای خود را تولید میکنند. با کمبود دادههای آموزشی، شرکتهایی مانند OpenAI بر این باورند که دادههای مصنوعی بخش مهمی از نحوه آموزش مدلهای آنها در آینده خواهد بود. طی 24 ماه گذشته، یک صنعت کامل برای خدمت به این چشمانداز شکل گرفته است شامل شرکتهایی مانند Tonic که دادههای ساختاری مصنوعی تولید میکنند و Gretel که دادههای مطابق با قوانین برای صنایع تحت نظارت مانند مالی و بهداشت و درمان ایجاد میکند.
اما آیا دادههای مصنوعی یک راهحل بلندمدت هستند؟ احتمالاً نه.
دادههای مصنوعی با استفاده از مدلها برای ایجاد مجموعههای داده مصنوعی که منعکسکننده آنچه کسی ممکن است به طور ارگانیک پیدا کند، کار میکنند (در یک واقعیت جایگزین که دادههای بیشتری واقعاً وجود دارد) و سپس از آن دادههای جدید برای آموزش مدلهای خود استفاده میکنند. در مقیاس کوچک، این واقعاً منطقی به نظر میرسد. اما همانطور که میگویند: “هر چیزی به اندازهاش خوب است.“
خطرات دادههای مصنوعی
میتوان به آن به عنوان سوءتغذیه زمینهای فکر کرد. درست مانند غذا، اگر منبع دادههای ارگانیک تازه بهترین نوع داده برای آموزش مدل باشد، دادههای تقطیر شده از مجموعههای موجود بهطور طبیعی باید از نظر غنای اطلاعاتی کمتر از دادههای قبلی باشند.
یک کمی طعم مصنوعی اشکالی ندارد اما اگر این رژیم غذایی از دادههای آموزشی مصنوعی بدون معرفی دادههای تازه ادامه یابد، آن مدل در نهایت شکست خواهد خورد (یا حداقل، ناخنهایش بهطرز قابل توجهی کمتر جذاب خواهند بود).
این فقط مسئله “اگر” نیست، بلکه “چه زمانی” است.
طبق گفته Tomasz، ما هنوز از فروپاشی مدلها فاصله داریم. اما با ادامه تحقیقات هوش مصنوعی و فشار به مدلها برای رسیدن به حداکثر قابلیتهایشان، دیدن دنیایی که هوش مصنوعی به نقطه اشباع عملکردی خود میرسد، چندان دشوار نیست شاید زودتر از آنچه فکر میکنیم.
8. ظهور ساختار دادههای غیرساختاری ” Barr Moses”
استفاده از دادههای غیرساختاری در تولید چیز جدیدی نیست اما در عصر هوش مصنوعی، این دادهها نقش جدید و مهمی به خود گرفتهاند.
وضعیت کنونی دادههای غیرساختاری
طبق گزارشی از IDC، تنها حدود نیمی از دادههای غیرساختاری یک سازمان در حال حاضر مورد تحلیل قرار میگیرد. اما این وضعیت به زودی تغییر خواهد کرد.
اهمیت دادههای غیرساختاری در هوش مصنوعی
در دنیای هوش مصنوعی مولد، موفقیت سازمانها به شدت به تنوع دادههای غیرساختاری که برای آموزش، تنظیم و تقویت مدلهای هوش مصنوعی استفاده میشود، بستگی دارد. هر چه سازمانها بیشتر به دنبال عملیاتی کردن هوش مصنوعی برای موارد کاربردی خود باشند، تمایل به استفاده از دادههای غیرساختاری و “ساختار دادههای غیرساختاری“ افزایش خواهد یافت.
برخی تیمها حتی در حال بررسی این هستند که چگونه میتوانند از مدلهای بزرگ زبانی (LLM) اضافی برای ایجاد ساختار در دادههای غیرساختاری استفاده کنند تا کارایی آنها در آموزش و تحلیلهای مختلف افزایش یابد.
فرصتی برای رهبران داده
شناسایی دادههای غیرساختاری اول شخص موجود در سازمان شما و چگونگی فعالسازی این دادهها برای ذینفعان یک فرصت طلایی برای رهبران داده است که به دنبال نشان دادن ارزش تجاری پلتفرم دادههای خود هستند. این میتواند به آنها کمک کند تا بودجه بیشتری برای پروژههای اولویتدار دریافت کنند.
اگر سال 2024 به بررسی پتانسیل دادههای غیرساختاری اختصاص یافته باشد، سال 2025 تماماً به تحقق ارزش این دادهها مربوط خواهد بود. سوال این است که… کدام ابزارها در این مسیر به کمک خواهند آمد؟
9. هوش مصنوعی عاملیتدار برای گفتگو عالی است اما برای پیادهسازی نه!! “Tomasz Tunguz”
اگر این روزها در نزدیکی استخرهای سرمایهگذاری خطرپذیر (venture capital) باشید، احتمالاً با اصطلاحاتی مانند “همکار” (copilot) و “عامل” (agent) آشنا خواهید شد. همکار به هوش مصنوعی گفته میشود که برای انجام یک مرحله خاص طراحی شده است (مثل “اصلاح کد افتضاح من”)، در حالی که عاملها به کارهای چندمرحلهای اشاره دارند که میتوانند اطلاعات جمعآوری کرده و از آنها برای انجام وظایفی استفاده کنند (مثل “نوشتن یک وبلاگ درباره کد افتضاح من و انتشار آن در وردپرس”).
موفقیت هوش مصنوعی همکار
بدون شک، در سال 2024 موفقیتهای زیادی در زمینه همکاران هوش مصنوعی دیدهایم (کافی است از Github، Snowflake، و کلاپر کاغذی مایکروسافت بپرسید)، اما وضعیت هوش مصنوعی عاملها چگونه است؟
چالشهای هوش مصنوعی عاملیتدار
در حالی که “هوش مصنوعی عاملیتدار“ به ایجاد اختلال در تیمهای پشتیبانی مشتری موفق بوده است، به نظر میرسد که این تنها سرنوشت آن در کوتاهمدت باشد. هرچند این عاملهای اولیه یک گام مهم رو به جلو هستند، اما دقت این فرآیندها هنوز پایین است.
برای درک بهتر، دقت 75 تا 90 درصدی برای هوش مصنوعی استاندارد است. بیشتر هوش مصنوعی مانند یک دانشآموز دبیرستانی عمل میکند. اما اگر شما سه مرحله با دقت 75 تا 90 درصد داشته باشید، دقت نهایی شما حدود 50 درصد خواهد بود.
ما فیلها را آموزش دادهایم که با دقت بیشتری نقاشی کنند.
خطرات پیادهسازی هوش مصنوعی عامل
بسیاری از عاملهای هوش مصنوعی در وضعیت فعلی خود نه تنها به عنوان منبع درآمد برای سازمانها عمل نمیکنند، بلکه اگر در این وضعیت به تولید برسند، میتوانند آسیبزا باشند. به گفته Tomasz، ما باید ابتدا این مشکل را حل کنیم.
صحبت درباره این عاملها مهم است، اما هیچ موفقیتی فراتر از یک نمایش دمو وجود ندارد. زیرا به هر اندازه که مردم در سیلیکون ولی بخواهند درباره عاملهای هوش مصنوعی صحبت کنند، این صحبتها به عملکرد واقعی تبدیل نمیشود.
10. پایپلاینها در حال گسترشاند اما کیفیت آنها نه ! “Tomasz Tunguz”
در یک شام با چند نفر از سران هوش مصنوعی، از آنها پرسیدم که چند نفر از کیفیت خروجیهای خود راضی هستند و هیچکس دست خود را بالا نبرد. این نشاندهنده یک چالش واقعی در دستیابی به خروجیهای متناسب (consistent) است.
چالشهای کیفیت داده
هر سال، Monte Carlo از متخصصان داده درباره وضعیت کیفیت دادههایشان نظرسنجی میکند. امسال، ما به تأثیر هوش مصنوعی نگاه کردیم و پیام واضح بود:
ریسکهای کیفیت داده در حال تغییر هستند اما مدیریت کیفیت داده نه.
گسترش پایپلاینها
ما شاهد هستیم که تیمها در حال ساخت پایگاههای داده و مدلهای جاسازیشده در مقیاس بزرگ هستند. SQLLite در مقیاس بزرگ. این 100 میلیون پایگاه داده کوچک. این پایگاهها به گونهای طراحی میشوند که در لایه CDN (شبکه تحویل محتوا) اجرا شوند. گوشیهای آیفون هم مدلهای یادگیری ماشینی خواهند داشت. ما شاهد انفجاری در تعداد پایپلاینها خواهیم بود، اما با حجم دادههای بسیار کوچکتر.
الگوی تنظیم دقیق (fine-tuning) باعث ایجاد انفجاری در تعداد پایپلاینهای داده درون یک سازمان خواهد شد. اما هر چه تعداد پایپلاینها بیشتر شود، مدیریت کیفیت دادهها دشوارتر خواهد شد.
رابطه بین کیفیت داده و پیچیدگی پایپلاینها
کیفیت داده به نسبت حجم و پیچیدگی پایپلاینهای شما افزایش مییابد. هر چه تعداد پایپلاینها بیشتر و پیچیدهتر شوند، فرصتهای بیشتری برای بروز مشکلات وجود خواهد داشت و احتمال یافتن آنها در زمان مناسب کمتر خواهد بود.
این نکته اهمیت دارد که با گسترش تعداد پایپلاینها، توجه بیشتری به کیفیت دادهها داشته باشیم تا از بروز مشکلات جلوگیری کنیم.
با گسترش پایپلاینها و افزایش حجم دادهها، اهمیت مدیریت کیفیت دادهها بیش از پیش نمایان میشود. سازمانها باید به بهبود فرآیندهای مدیریت کیفیت توجه ویژهای داشته باشند تا از مشکلات کیفیتی جلوگیری کنند و از پتانسیل هوش مصنوعی به بهترین شکل بهرهبرداری نمایند.
بیشتر بخوانید: هوش مصنوعی سورا Sora چیست؟