به نقل از تک نیوز ورد، «جین آلوارز» تحلیلگر گارتنر گفت: روندهای برتر فناوری راهبردی سال پیشرو شامل الزامات و خطرات هوش مصنوعی، مرزهای جدید محاسبات و همکاری انسان و ماشین است. بررسی این روندها به رهبران حوزه فناوری اطلاعات کمک خواهند کرد تا آینده سازمان خود را با نوآوری مسوولانه و اخلاقی شکل دهند.
هوش مصنوعی عاملی
در صدر این فهرست، سیستمهای «هوش مصنوعی عاملی» (Agentic AI) قرار دارند که میتوانند اقدامات را بهطور مستقل براساس اهداف تعریفشده توسط کاربر برنامهریزی و اجرا کنند. این شرکت پیشبینی کرد که تا سال ۲۰۲۸، حداقل ۱۵ درصد از تصمیمات کاری روزانه بهطور مستقل از طریق هوش مصنوعی عاملی گرفته خواهند شد که این رقم در سال جاری، صفر درصد بود.
«آمبوج کومار» بنیانگذار شرکت «سیمبین» (Simbian) ارائهدهنده عوامل هوش مصنوعی مستقل برای امنیت سایبری گفت: هوش مصنوعی عاملی قطعا آینده نیروی کار سازمانی است.
با وجود این، فناوری هوش مصنوعی عاملی برای دستیابی به نفوذ پیشبینیشده توسط گارتنر باید بر برخی از چالشها غلبه کند. «سندی بسن» پژوهشگر هوش مصنوعی در شرکتهای «آیبیام» (IBM) و «نودزیک» (Neudesic) توضیح داد: طراحی سیستمهای هوش مصنوعی عاملی هنوز آزمایشی است. همانطور که مهندسان هوش مصنوعی به اصلاح روشهای خود ادامه میدهند، این حوزه تکامل خواهد یافت.
پلتفرمهای مدیریت هوش مصنوعی
گارتنر در این فهرست به سازمانها توصیه کرده است که پلتفرمهای مدیریت هوش مصنوعی را در نظر بگیرند. این پلتفرمها توانایی ایجاد، مدیریت و اجرای سیاستهایی را برای استفاده مسوولانه از هوش مصنوعی، توضیح نحوه عملکرد سیستمهای هوش مصنوعی و ارائه شفافیت برای ایجاد اعتماد و مسوولیتپذیری دارند.
گارتنر پیشبینی کرده است که تا سال ۲۰۲۸، سازمانهایی که پلتفرمهای جامع مدیریت هوش مصنوعی را پیادهسازی میکنند، ۴۰ درصد کمتر حوادث اخلاقی مرتبط با هوش مصنوعی را در مقایسه با سازمانهایی که چنین سیستمهایی در اختیار ندارند، تجربه خواهند کرد.
«مارک ونا» رئیس و تحلیلگر اصلی شرکت «اسمارتتک ریسرچ» (SmartTech Research) گفت: بدون شک، مدیریت هوش مصنوعی برای کاهش حوادث اخلاقی بسیار مهم است، زیرا امکان نظارت ساختاری و پاسخگویی را در توسعه و استقرار هوش مصنوعی فراهم میکند. سازمانها با اجرای چارچوبهای شفاف میتوانند اطمینان حاصل کنند که سیستمهای هوش مصنوعی با استانداردهای اخلاقی مانند انصاف، شفافیت و عدم تعصب هماهنگ هستند.
پرداختن به دروغرسانی
گارتنر پیشبینی کرده است که سازمانهای بیشتری در حوزه امنیت در برابر دروغرسانی سرمایهگذاری خواهند کرد. پیشبینی شده که تا سال ۲۰۲۸ احتمالا ۵۰ درصد از شرکتها استفاده از محصولات، خدمات یا ویژگیهایی را آغاز خواهند کرد که به صراحت برای رسیدگی به موارد استفاده از دروغرسانی طراحی شدهاند؛ در حالی که امروزه این رقم کمتر از پنج درصد است.
«راب اندرل» (Rob Enderle) رئیس و تحلیلگر اصلی شرکت «اندرل گروپ» (Enderle Group) گفت: دروغرسانی به گرفتن تصمیمات بد میانجامد و به ویژه برای هوش مصنوعی مشکلساز است. هوش مصنوعی با سرعت بیشتری درباره این اطلاعات بد تصمیم میگیرد. بنابراین، حل کردن مشکل دروغرسانی برای هوش مصنوعی حتی از انسانها حیاتیتر میشود.
رمزنگاری پساکوانتوم
همچنین، پیشبینی شده است که رمزنگاری پساکوانتومی در سال ۲۰۲۵ در رادار سازمانها قرار خواهد گرفت. گارتنر توضیح داد که انتظار میرود پیشرفتهای محاسباتی کوانتومی به چندین نوع رمزنگاری مرسوم کنونی پایان دهند. پیشبینی شده است که تا سال ۲۰۲۹ پیشرفت در محاسبات کوانتومی، استفاده از بیشتر رمزنگاریهای رایج را ناامن خواهد کرد.
«فلوریان نوکارت» (Florian Neukart) مدیر ارشد محصولات در شرکت «ترا کوانتوم» (Terra Quantum) گفت: من کاملا با بیانیه گارتنر موافق هستم. رمزنگاریهای مرسوم در برابر حملات کوانتومی آسیبپذیر هستند. سازمانها باید اکنون انتقال به راهحلهای رمزنگاری پساکوانتومی را آغاز کنند. تغییر روشهای رمزنگاری به زمان قابل توجهی نیاز دارد تا اطمینان حاصل شود که دادههای حساس در آینده کوانتومی ایمن باقی میمانند.
تقویت عصبی
یکی دیگر از فناوریهای راهبردی شناساییشده توسط گارتنر، تقویت عصبی است. گارتنر بر این باور است که این فناوری در سه زمینه دارای پتانسیل بالایی خواهد بود. این سه زمینه، ارتقای مهارت انسانی، بازاریابی نسل بعدی و عملکرد هستند. تقویت عصبی، تواناییهای شناختی را افزایش میدهد، برندها را قادر میسازد تا بدانند مصرفکنندگان چه فکری میکنند و چه احساسی دارند و تواناییهای عصبی انسان را برای بهبود نتایج افزایش میدهد.
گارتنر پیشبینی کرده است که تا سال ۲۰۳۰ احتمالا ۳۰ درصد از کارکنان توسط فناوریهایی مانند رابطهای دوطرفه مغز و ماشین تقویت خواهند شد و به آنها وابستگی خواهند داشت. اندرل با این پیشبینی گارتنر مخالف است. وی افزود: فناوری در حال حاضر بسیار محدود است و به سطحی از آموزش برای خواندن مغز نیاز دارد که مقیاسپذیر نباشد. بازگرداندن اطلاعات به مغز هنوز حداقل به صورت عمومی مرتبسازی نشده است. با توجه به عدم پیشرفت در این زمینه، من فکر میکنم پیشبینی ۲۰۳۰ قابل اعتماد نیست.