10 ترند برتر هوش مصنوعی و داده برای سال 2025

10 ترند برتر هوش مصنوعی و داده برای سال 2025

10 ترند برتر هوش مصنوعی

طبق نظر کارشناسان صنعت، سال 2024 قرار بود سالی فوق‌العاده برای هوش مصنوعی مولد باشد. کاربردهای عملی در حال ظهور بودند، فناوری موانع ورود را کاهش می‌داد و به نظر می‌رسید که هوش مصنوعی عمومی به زودی در دسترس خواهد بود.

پس… آیا این پیش‌بینی‌ها به واقعیت پیوستند؟

خب، تا حدی. حالا که به پایان سال 2024 نزدیک می‌شویم، می‌توان گفت برخی از این پیش‌بینی‌ها به حقیقت پیوسته‌اند، در حالی که برای بقیه هنوز کمی زمان نیاز است (به هوش مصنوعی عمومی اشاره می‌کنم).

در اینجا، نظرات Tomasz Tunguz، آینده‌پژوه و سرمایه‌گذار، درباره وضعیت داده و هوش مصنوعی در پایان 2024 را می‌بینید  به‌علاوه چند پیش‌بینی از Barr Moses.

ترندهای مهندسی داده برای سال 2025 در راه‌اند.

1. ما در دنیایی بدون استدلال زندگی می‌کنیم. “Tomasz Tunguz

در سه سال اول دنیای دیستوپیایی (غیرواقعی و تاریک) هوش مصنوعی، شاهد رشد کسب‌وکارها در برخی از حوزه‌هایی هستیم که انتظار داشتیم ارزش ایجاد کنند — اما نه در همه آن‌ها. طبق نظر Tomasz Tunguz ، وضعیت فعلی هوش مصنوعی را می‌توان به سه دسته تقسیم کرد:

1. Prediction (پیش‌بینی): هوش مصنوعی‌های همکار که می‌توانند جملات را کامل کنند، خطاهای کد را تصحیح کنند و غیره.

2. Search (جستجو): ابزارهایی که از یک مجموعه داده برای پاسخ به سوالات استفاده می‌کنند.

3. Reasoning (استدلال): یک گردش کار چند مرحله‌ای که می‌تواند وظایف پیچیده را انجام دهد.

در حالی که هوش مصنوعی‌های همکار و جستجو موفقیت‌های متوسطی (به ویژه در مورد اول) در سازمان‌های بزرگ داشته‌اند، مدل‌های استدلال هنوز به نظر می‌رسد که عقب مانده‌اند. و طبق گفته Tomasz، دلیل واضحی برای این موضوع وجود دارد:

مدل‌های کنونی دقت کافی ندارند.

Tomasz توضیح می‌دهد که این مدل‌ها در تقسیم وظایف به مراحل مؤثر مشکل دارند، مگر اینکه الگوی خاصی را بارها و بارها مشاهده کرده باشند. این موضوع برای بسیاری از کارهایی که این مدل‌ها می‌توانند انجام دهند، صدق نمی‌کند.

به عنوان مثال اگر امروز از یک مدل بزرگ خواسته شود که یک نمودار FP&A (برنامه‌ریزی مالی و تجزیه و تحلیل) تولید کند، می‌تواند این کار را انجام دهد. اما اگر بخواهیم چیزی جدید تولید کند ، مثلاً اگر بخواهیم از یک روش صورتحساب جدید استفاده کنیم ، مدل ممکن است نتواند به درستی عمل کند و گمراه شود.

بنابراین فعلاً به نظر می‌رسد که هوش مصنوعی‌های همکار و نتایج جستجوی نیمه‌دقیق، پیروز میدان هستند.

 2. فرایند مهم‌تر از ابزار است “Barr Moses

یک ابزار جدید به اندازه فرایند پشتیبان آن خوب است.

با پیشرفت “مدل داده مدرن” در سال‌های اخیر، تیم‌های داده گاهی اوقات در وضعیتی از بررسی بی‌پایان قرار می‌گیرند. آن‌ها بیش از حد بر روی چیستی پلتفرم خود تمرکز می‌کنند و کمتر به چگونگی آن توجه می‌کنند، که ممکن است به مراتب مهم‌تر باشد.

اما با نزدیک شدن تدریجی سازمان‌ها به (هوش مصنوعی آماده برای تولید)، یادگیری چگونگی استفاده از این ابزارهای جدید هر روز ضروری‌تر می‌شود.

 مثال کیفیت داده

بیایید به کیفیت داده توجه کنیم. با اینکه داده‌های تغذیه‌کننده هوش مصنوعی در سال 2024 به موضوع اصلی تبدیل شدند، کیفیت داده نیز به کانون توجه آمد. رهبران داده در سازمان‌ها زمان ندارند تا از منوی کیفیت داده انتخاب کنند

“مثلاً چند آزمایش DBT و چند راه‌حل جداگانه.

آن‌ها موظفند که به سرعت ارزش را ارائه دهند و به راه‌حل‌های قابل اعتماد نیاز دارند که بتوانند به‌طور مؤثر پیاده‌سازی کنند.

واقعیت این است که شما ممکن است پیشرفته‌ترین پلتفرم کیفیت داده را داشته باشید. با بهترین اتوماسیون‌ها و ادغام‌های شگفت‌انگیز، اما اگر نتوانید سازمان خود را به سرعت راه‌اندازی کنید، در واقع فقط یک مورد در بودجه‌تان و یک زبانه جدید در دسکتاپ‌تان دارید.

آینده تیم‌های داده

در 12 ماه آینده، انتظار می‌رود تیم‌های داده به سمت راه‌حل‌های جامع و اثبات‌شده بروند تا چالش‌های مهم‌تری مانند مالکیت کیفیت داده، مدیریت حوادث و توانمندسازی درازمدت حوزه را در اولویت قرار دهند.

و راه‌حلی که بر این اولویت‌ها موفق عمل کند، راه‌حلی است که در دنیای هوش مصنوعی پیروز خواهد شد.

 

سرمایه گذاری با ROI

3. هوش مصنوعی ROI را بهبود می‌بخشد ، اما نه درآمد!  “Tomasz Tunguz

مانند هر محصول داده‌ای، ارزش GenAI (هوش مصنوعی جنرالی) به دو شکل به دست می‌آید: کاهش هزینه‌ها یا ایجاد درآمد.

درآمد

در سمت درآمد، ممکن است ابزارهایی مانند AI SDRs (نمایندگان فروش هوش مصنوعی)، ماشین‌های غنی‌سازی داده یا سیستم‌های پیشنهاددهی وجود داشته باشد. طبق گفته Tomasz، این ابزارها می‌توانند حجم زیادی از پایپ‌لاین فروش تولید کنند، اما این پایپ‌لاین معمولاً سالم نیست. بنابراین، اگر هوش مصنوعی نمی‌تواند درآمد ایجاد کند، باید به کاهش هزینه‌ها بپردازد — و در این زمینه، این فناوری نوپا موفقیت‌هایی داشته است.

تعداد کمی از شرکت‌ها از این طریق کسب‌وکار جدیدی به دست می‌آورند. بیشتر به کاهش هزینه‌ها مربوط می‌شود. Klarna دو سوم از نیروی کار خود را کاهش داد. Microsoft و ServiceNow شاهد افزایش 50 تا 75 درصدی در بهره‌وری مهندسی بوده‌اند.

معیارهای کاهش هزینه

Tomasz توضیح می‌دهد که یک مورد استفاده از هوش مصنوعی برای کاهش هزینه‌ها زمانی مؤثر است که یکی از سه معیار زیر برآورده شود:

1. مشاغل تکراری: کارهایی که به‌طور مکرر انجام می‌شوند.
2. بازار کار چالش‌برانگیز: زمانی که پیدا کردن نیروی کار مناسب سخت باشد.
3. نیازهای فوری استخدام: زمانی که به سرعت به کارمندان جدید نیاز دارند.

 مثال موفق

یک نمونه از شرکتی که به‌خوبی درآمد جدیدی را ایجاد کرده، EvenUp است. یک شرکت حقوقی که نامه‌های تقاضا را به‌صورت خودکار تولید می‌کند. سازمان‌هایی مانند EvenUp که خدمات تخصصی و الگوهای مشخص را ارائه می‌دهند، ممکن است به‌طور منحصر به فردی از تأثیر هوش مصنوعی در شکل کنونی خود بهره‌مند شوند.

 4. پذیرش هوش مصنوعی کندتر از حد انتظار است، اما رهبران صبر می‌کنند.  Tomasz Tunguz

در مقایسه با طوفانی از “استراتژی‌های هوش مصنوعی” که سال گذشته مورد استقبال قرار گرفت، به نظر می‌رسد رهبران امروز یک قدم به عقب از این فناوری برداشته‌اند.

 تغییرات در رویکرد

سال گذشته، موجی از هیجان وجود داشت که مردم سعی می‌کردند انواع نرم‌افزارها را فقط برای آزمایش ببینند. هیئت‌مدیره‌ها درباره استراتژی هوش مصنوعی سوال می‌کردند. اما حالا تغییرات زیادی در آن موج اولیه ایجاد شده است.

برخی سازمان‌ها به سادگی نتوانسته‌اند ارزش لازم را از آزمایشات اولیه خود بگیرند، در حالی که دیگران با تکامل سریع فناوری‌های زیرساختی آن مشکل داشته‌اند. طبق گفته Tomasz، این یکی از بزرگ‌ترین چالش‌ها برای سرمایه‌گذاری در شرکت‌های هوش مصنوعی است. مشکل این نیست که فناوری به‌طور نظری ارزشمند نیست، بلکه سازمان‌ها هنوز نتوانسته‌اند یاد بگیرند که چگونه به‌طور مؤثر از آن استفاده کنند.

 موج جدید پذیرش

Tomasz معتقد است که موج بعدی پذیرش هوش مصنوعی متفاوت از اولی خواهد بود، زیرا رهبران اطلاعات بیشتری درباره نیازهای خود خواهند داشت و می‌دانند که کجا باید به دنبال آن باشند.

 آماده‌سازی برای فرصت‌ها

مانند یک تمرین قبل از نمایش بزرگ، تیم‌ها می‌دانند که چه چیزی را جستجو می‌کنند، برخی از مشکلات را با بخش‌های قانونی و تأمین، به‌ویژه در زمینه از دست دادن داده و پیشگیری، حل کرده‌اند و آماده‌اند تا وقتی فرصت مناسب پیش می‌آید، عمل کنند.

 چالش‌های آینده

چالش بزرگ فردا؟ “چگونه می‌توانم ارزش را سریع‌تر پیدا کنم و به فروش برسانم؟

 

10 ترند برتر هوش مصنوعی

 5. داده‌های کوچک، آینده هوش مصنوعی هستند. “Tomasz Tunguz

بحث درباره منابع باز و مدیریت شده داستانی قدیمی است، اما وقتی به هوش مصنوعی می‌رسیم، این سوال پیچیده‌تر می‌شود.

 هزینه‌های عملیاتی در سطح سازمانی

در سطح سازمانی، این فقط یک سوال درباره کنترل یا قابلیت همکاری نیست، اگرچه این موارد هم مهم هستند ، بلکه سوال اصلی هزینه‌های عملیاتی است. Tomasz معتقد است که بزرگ‌ترین شرکت‌های B2C به مدل‌های از پیش ساخته شده متکی خواهند بود، در حالی که شرکت‌های B2B به سمت مدل‌های اختصاصی و منبع باز خود خواهند رفت.

در B2B، شما مدل‌های کوچک‌تری خواهید دید و بیشتر به سمت منابع باز می‌رویم. این به این دلیل است که اجرای یک مدل کوچک منبع باز بسیار ارزان‌تر است.

 بهبود عملکرد با مدل‌های کوچک

اما همه چیز فقط به هزینه مربوط نمی‌شود. مدل‌های کوچک همچنین عملکرد بهتری دارند. مانند Google، مدل‌های بزرگ برای پاسخ به انواع مختلف درخواست‌ها طراحی شده‌اند. کاربران می‌توانند هر چیزی را از یک مدل بزرگ بپرسند، بنابراین آن مدل نیاز دارد که بر روی داده‌های زیادی آموزش ببیند تا پاسخ‌های مرتبطی ارائه کند، از واترپولو تا تاریخ چین و نان فرانسوی.

با این حال، هر چه تعداد موضوعاتی که یک مدل آموزش می‌بیند بیشتر باشد، احتمال اشتباه در ترکیب مفاهیم نیز بیشتر می‌شود و خروجی‌ها به مرور زمان خطاهای بیشتری خواهند داشت.

شما می‌توانید چیزی مانند Llama 2 با 8 میلیارد پارامتر را بگیرید و با 10,000 تیکت پشتیبانی تنظیم کنید و عملکرد آن بسیار بهتر خواهد شد  Tomasz.

 چالش‌های حقوقی و تأثیر آن بر مدل‌های اختصاصی

علاوه بر این، ChatGPT و دیگر راه‌حل‌های مدیریت شده به‌طور مکرر در دادگاه‌ها به چالش کشیده می‌شوند به خاطر ادعاهایی مبنی بر اینکه سازندگان آن‌ها حق قانونی استفاده از داده‌هایی که این مدل‌ها بر اساس آن آموزش دیده‌اند را نداشتند. این ادعاها در بسیاری از موارد احتمالاً درست است.

این موضوع، همراه با هزینه و عملکرد، احتمالاً بر پذیرش طولانی‌مدت مدل‌های اختصاصی تأثیر خواهد گذاشت، به‌ویژه در صنایع با مقررات سختگیرانه اما شدت این تأثیر هنوز مشخص نیست.

 رقابت قیمت در بازار

البته، مدل‌های اختصاصی نیز بی‌تحرک نیستند. اگر Sam Altman چیزی برای گفتن داشته باشد (و اگر توییتر چیزی به ما آموخته باشد، قطعاً Sam Altman چیزهای زیادی برای گفتن دارد).

مدل‌های اختصاصی به‌طور تهاجمی قیمت‌ها را کاهش می‌دهند تا تقاضا را افزایش دهند. مدل‌هایی مانند ChatGPT قبلاً قیمت‌ها را حدود 50 درصد کاهش داده‌اند و انتظار دارند در 6 ماه آینده 50 درصد دیگر نیز کاهش یابند. این کاهش هزینه می‌تواند یک کمک بسیار مورد نیاز برای شرکت‌های B2C باشد که امیدوارند در رقابت‌های هوش مصنوعی پیشی بگیرند.

6. مرزها برای تحلیلگران و مهندسان داده در حال کمرنگ شدن است ” Barr Moses”

وقتی صحبت از مقیاس‌بندی تولید پایپ‌لاین می‌شود، معمولاً دو چالش وجود دارد که تیم‌های داده با آن مواجه می‌شوند: تحلیلگرانی که تجربه فنی کافی ندارند و مهندسان داده که زمان کافی ندارند.

این به نظر می‌رسد که یک مشکل برای هوش مصنوعی باشد.

 تحولات آینده تیم‌های داده

با نگاهی به چگونگی تکامل تیم‌های داده، دو تحول اصلی وجود دارد که به نظر می‌رسد می‌تواند منجر به همگرایی مسئولیت‌های مهندسی و تحلیلی در سال 2025 شود:

 

1. افزایش تقاضا: با افزایش تمایل رهبران کسب‌وکار به داده و محصولات هوش مصنوعی، تیم‌های داده باید بیشتر با منابع کمتر کار کنند. برای کاهش گلوگاه‌ها، رهبران به طور طبیعی تیم‌های تخصصی قبلی را توانمند می‌سازند تا مسئولیت‌های بیشتری را برای پایپ‌لاین‌ها و ذینفعان خود بپذیرند.

 

2. بهبود در اتوماسیون: تقاضای جدید همیشه نوآوری‌های جدیدی را به همراه دارد. (در این مورد، به معنی پایپ‌لاین‌های هوش مصنوعی‌محور است.) با اتوماتیک شدن طبیعی تکنولوژی‌ها، مهندسان قادر خواهند بود بیشتر با منابع کمتر کار کنند و تحلیلگران نیز قادر خواهند بود مستقل‌تر عمل کنند.

 نتیجه‌گیری

استدلال ساده است. با افزایش تقاضا، اتوماسیون پایپ‌لاین به طور طبیعی برای پاسخ به این تقاضا تکامل می‌یابد. هر چه اتوماسیون پایپ‌لاین برای پاسخ به تقاضا تکامل یابد، موانع ایجاد و مدیریت این پایپ‌لاین‌ها کاهش می‌یابد. شکاف مهارتی کاهش یافته و توانایی افزودن ارزش جدید افزایش می‌یابد.

حرکت به سمت مدیریت پایپ‌لاین‌های هوش مصنوعی‌محور خودخدمت، به این معنی است که دردناک‌ترین بخش کار هر کسی به طور خودکار انجام می‌شود و توانایی آن‌ها برای ایجاد و نشان دادن ارزش جدید در این فرآیند گسترش می‌یابد. به نظر می‌رسد آینده‌ای دلنشین باشد.

 7. داده‌های مصنوعی اهمیت دارند اما هزینه دارند Tomasz Tunguz

شاید تصویر یک مار که دم خود را می‌خورد را دیده باشید. اگر به دقت نگاه کنید، شباهت زیادی به هوش مصنوعی معاصر دارد.

 چالش‌های داده‌های آموزشی

در حال حاضر حدود 21 تا 25 تریلیون توکن (کلمه) در اینترنت وجود دارد. مدل‌های هوش مصنوعی که در حال حاضر در حال کار هستند، از همه آن‌ها استفاده کرده‌اند. برای اینکه داده‌ها به تکامل خود ادامه دهند، به مجموعه داده‌ای به مراتب بزرگ‌تر نیاز دارند. هر چه داده بیشتری داشته باشند، زمینه بیشتری برای تولید خروجی‌ها فراهم می‌شود و خروجی‌ها دقیق‌تر خواهند بود.

اما وقتی پژوهشگران هوش مصنوعی با کمبود داده‌های آموزشی مواجه می‌شوند، چه می‌کنند؟

 تولید داده‌های مصنوعی

آن‌ها داده‌های خود را تولید می‌کنند. با کمبود داده‌های آموزشی، شرکت‌هایی مانند OpenAI بر این باورند که داده‌های مصنوعی بخش مهمی از نحوه آموزش مدل‌های آن‌ها در آینده خواهد بود. طی 24 ماه گذشته، یک صنعت کامل برای خدمت به این چشم‌انداز شکل گرفته است شامل شرکت‌هایی مانند Tonic که داده‌های ساختاری مصنوعی تولید می‌کنند و Gretel که داده‌های مطابق با قوانین برای صنایع تحت نظارت مانند مالی و بهداشت و درمان ایجاد می‌کند.

اما آیا داده‌های مصنوعی یک راه‌حل بلندمدت هستند؟ احتمالاً نه.

داده‌های مصنوعی با استفاده از مدل‌ها برای ایجاد مجموعه‌های داده مصنوعی که منعکس‌کننده آنچه کسی ممکن است به طور ارگانیک پیدا کند، کار می‌کنند (در یک واقعیت جایگزین که داده‌های بیشتری واقعاً وجود دارد) و سپس از آن داده‌های جدید برای آموزش مدل‌های خود استفاده می‌کنند. در مقیاس کوچک، این واقعاً منطقی به نظر می‌رسد. اما همان‌طور که می‌گویند: هر چیزی به اندازه‌اش خوب است.

خطرات داده‌های مصنوعی

می‌توان به آن به عنوان سوءتغذیه زمینه‌ای فکر کرد. درست مانند غذا، اگر منبع داده‌های ارگانیک تازه بهترین نوع داده برای آموزش مدل باشد، داده‌های تقطیر شده از مجموعه‌های موجود به‌طور طبیعی باید از نظر غنای اطلاعاتی کمتر از داده‌های قبلی باشند.

یک کمی طعم مصنوعی اشکالی ندارد اما اگر این رژیم غذایی از داده‌های آموزشی مصنوعی بدون معرفی داده‌های تازه ادامه یابد، آن مدل در نهایت شکست خواهد خورد (یا حداقل، ناخن‌هایش به‌طرز قابل توجهی کمتر جذاب خواهند بود).

این فقط مسئله “اگر” نیست، بلکه “چه زمانی” است.

طبق گفته Tomasz، ما هنوز از فروپاشی مدل‌ها فاصله داریم. اما با ادامه تحقیقات هوش مصنوعی و فشار به مدل‌ها برای رسیدن به حداکثر قابلیت‌هایشان، دیدن دنیایی که هوش مصنوعی به نقطه اشباع عملکردی خود می‌رسد، چندان دشوار نیست شاید زودتر از آنچه فکر می‌کنیم.

8. ظهور ساختار داده‌های غیرساختاری ” Barr Moses”

استفاده از داده‌های غیرساختاری در تولید چیز جدیدی نیست اما در عصر هوش مصنوعی، این داده‌ها نقش جدید و مهمی به خود گرفته‌اند.

 وضعیت کنونی داده‌های غیرساختاری

طبق گزارشی از IDC، تنها حدود نیمی از داده‌های غیرساختاری یک سازمان در حال حاضر مورد تحلیل قرار می‌گیرد. اما این وضعیت به زودی تغییر خواهد کرد.

 اهمیت داده‌های غیرساختاری در هوش مصنوعی

در دنیای هوش مصنوعی مولد، موفقیت سازمان‌ها به شدت به تنوع داده‌های غیرساختاری که برای آموزش، تنظیم و تقویت مدل‌های هوش مصنوعی استفاده می‌شود، بستگی دارد. هر چه سازمان‌ها بیشتر به دنبال عملیاتی کردن هوش مصنوعی برای موارد کاربردی خود باشند، تمایل به استفاده از داده‌های غیرساختاری و ساختار داده‌های غیرساختاری افزایش خواهد یافت.

برخی تیم‌ها حتی در حال بررسی این هستند که چگونه می‌توانند از مدل‌های بزرگ زبانی (LLM) اضافی برای ایجاد ساختار در داده‌های غیرساختاری استفاده کنند تا کارایی آن‌ها در آموزش و تحلیل‌های مختلف افزایش یابد.

 فرصتی برای رهبران داده

شناسایی داده‌های غیرساختاری اول شخص موجود در سازمان شما  و چگونگی فعال‌سازی این داده‌ها برای ذینفعان یک فرصت طلایی برای رهبران داده است که به دنبال نشان دادن ارزش تجاری پلتفرم داده‌های خود هستند. این می‌تواند به آن‌ها کمک کند تا بودجه بیشتری برای پروژه‌های اولویت‌دار دریافت کنند.

اگر سال 2024 به بررسی پتانسیل داده‌های غیرساختاری اختصاص یافته باشد، سال 2025 تماماً به تحقق ارزش این داده‌ها مربوط خواهد بود. سوال این است که… کدام ابزارها در این مسیر به کمک خواهند آمد؟

9. هوش مصنوعی عاملیت‌دار برای گفتگو عالی است اما برای پیاده‌سازی نه!! “Tomasz Tunguz”

اگر این روزها در نزدیکی استخرهای سرمایه‌گذاری خطرپذیر (venture capital) باشید، احتمالاً با اصطلاحاتی مانند “همکار” (copilot) و “عامل” (agent) آشنا خواهید شد. همکار به هوش مصنوعی گفته می‌شود که برای انجام یک مرحله خاص طراحی شده است (مثل “اصلاح کد افتضاح من”)، در حالی که عامل‌ها به کارهای چندمرحله‌ای اشاره دارند که می‌توانند اطلاعات جمع‌آوری کرده و از آن‌ها برای انجام وظایفی استفاده کنند (مثل “نوشتن یک وبلاگ درباره کد افتضاح من و انتشار آن در وردپرس”).

 موفقیت هوش مصنوعی همکار

بدون شک، در سال 2024 موفقیت‌های زیادی در زمینه همکاران هوش مصنوعی دیده‌ایم (کافی است از Github، Snowflake، و کلاپر کاغذی مایکروسافت بپرسید)، اما وضعیت هوش مصنوعی عامل‌ها چگونه است؟

چالش‌های هوش مصنوعی عاملیت‌دار

در حالی که هوش مصنوعی عاملیت‌دار به ایجاد اختلال در تیم‌های پشتیبانی مشتری موفق بوده است، به نظر می‌رسد که این تنها سرنوشت آن در کوتاه‌مدت باشد. هرچند این عامل‌های اولیه یک گام مهم رو به جلو هستند، اما دقت این فرآیندها هنوز پایین است.

برای درک بهتر، دقت 75 تا 90 درصدی برای هوش مصنوعی استاندارد است. بیشتر هوش مصنوعی مانند یک دانش‌آموز دبیرستانی عمل می‌کند. اما اگر شما سه مرحله با دقت 75 تا 90 درصد داشته باشید، دقت نهایی شما حدود 50 درصد خواهد بود.

ما فیل‌ها را آموزش داده‌ایم که با دقت بیشتری نقاشی کنند.

خطرات پیاده‌سازی هوش مصنوعی عامل

بسیاری از عامل‌های هوش مصنوعی در وضعیت فعلی خود نه تنها به عنوان منبع درآمد برای سازمان‌ها عمل نمی‌کنند، بلکه اگر در این وضعیت به تولید برسند، می‌توانند آسیب‌زا باشند. به گفته Tomasz، ما باید ابتدا این مشکل را حل کنیم.

صحبت درباره این عامل‌ها مهم است، اما هیچ موفقیتی فراتر از یک نمایش دمو وجود ندارد. زیرا به هر اندازه که مردم در سیلیکون ولی بخواهند درباره عامل‌های هوش مصنوعی صحبت کنند، این صحبت‌ها به عملکرد واقعی تبدیل نمی‌شود.

 

پایپ‌لاین‌های در حال گسترش‌

10. پایپ‌لاین‌ها در حال گسترش‌اند اما کیفیت آن‌ها نه ! “Tomasz Tunguz”

در یک شام با چند نفر از سران هوش مصنوعی، از آن‌ها پرسیدم که چند نفر از کیفیت خروجی‌های خود راضی هستند و هیچ‌کس دست خود را بالا نبرد. این نشان‌دهنده یک چالش واقعی در دستیابی به خروجی‌های متناسب (consistent) است.

 چالش‌های کیفیت داده

هر سال، Monte Carlo از متخصصان داده درباره وضعیت کیفیت داده‌هایشان نظرسنجی می‌کند. امسال، ما به تأثیر هوش مصنوعی نگاه کردیم و پیام واضح بود:

ریسک‌های کیفیت داده در حال تغییر هستند  اما مدیریت کیفیت داده نه.

 گسترش پایپ‌لاین‌ها

ما شاهد هستیم که تیم‌ها در حال ساخت پایگاه‌های داده و مدل‌های جاسازی‌شده در مقیاس بزرگ هستند. SQLLite در مقیاس بزرگ. این 100 میلیون پایگاه داده کوچک. این پایگاه‌ها به گونه‌ای طراحی می‌شوند که در لایه CDN (شبکه تحویل محتوا) اجرا شوند. گوشی‌های آیفون هم مدل‌های یادگیری ماشینی خواهند داشت. ما شاهد انفجاری در تعداد پایپ‌لاین‌ها خواهیم بود، اما با حجم داده‌های بسیار کوچکتر.

الگوی تنظیم دقیق (fine-tuning) باعث ایجاد انفجاری در تعداد پایپ‌لاین‌های داده درون یک سازمان خواهد شد. اما هر چه تعداد پایپ‌لاین‌ها بیشتر شود، مدیریت کیفیت داده‌ها دشوارتر خواهد شد.

 رابطه بین کیفیت داده و پیچیدگی پایپ‌لاین‌ها

کیفیت داده به نسبت حجم و پیچیدگی پایپ‌لاین‌های شما افزایش می‌یابد. هر چه تعداد پایپ‌لاین‌ها بیشتر و پیچیده‌تر شوند، فرصت‌های بیشتری برای بروز مشکلات وجود خواهد داشت و احتمال یافتن آن‌ها در زمان مناسب کمتر خواهد بود.

این نکته اهمیت دارد که با گسترش تعداد پایپ‌لاین‌ها، توجه بیشتری به کیفیت داده‌ها داشته باشیم تا از بروز مشکلات جلوگیری کنیم.

 

با گسترش پایپ‌لاین‌ها و افزایش حجم داده‌ها، اهمیت مدیریت کیفیت داده‌ها بیش از پیش نمایان می‌شود. سازمان‌ها باید به بهبود فرآیندهای مدیریت کیفیت توجه ویژه‌ای داشته باشند تا از مشکلات کیفیتی جلوگیری کنند و از پتانسیل هوش مصنوعی به بهترین شکل بهره‌برداری نمایند.

بیشتر بخوانید: هوش مصنوعی سورا Sora چیست؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *