در بحبوحه علاقه فزاینده به هوش مصنوعی، شفافیت به شدت کم است

در بحبوحه علاقه فزاینده به هوش مصنوعی، شفافیت به شدت کم است

افراد درون حباب ها

آندری اونوفرینکو/گتی ایماژ

هنوز شفافیت در مورد نحوه آموزش مدل های اساسی وجود ندارد و این شکاف می تواند منجر به افزایش تنش با کاربران شود زیرا سازمان های بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.

طبق IDC، انتظار می‌رود در منطقه آسیا و اقیانوسیه، به استثنای چین، هزینه‌های هوش مصنوعی با رشد ۲۸.۹ درصدی از ۲۵.۵ میلیارد دلار در سال ۲۰۲۲ به ۹۰.۷ میلیارد دلار تا سال ۲۰۲۷ برسد. این شرکت تحقیقاتی ،ن زده است که بخش عمده ای از این هزینه، 81 درصد، صرف برنامه های کاربردی هوش مصنوعی پیش بینی و توضیحی می شود.

همچنین: پنج روش برای استفاده مسئولانه از هوش مصنوعی

کریس مارشال، معاون داده، تجزیه و تحلیل، هوش مصنوعی، پایداری و تحقیقات صنعتی در IDC خاطرنشان کرد، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی در منطقه را به خود اختصاص خواهد داد. برای آسیا و اقیانوسیه

مارشال که این هفته در اج، هوش مصنوعی اینتل در سنگاپور سخنر، می کرد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری به هوش مصنوعی فراتر از هوش مصنوعی مولد نیاز دارد.

IDC خاطرنشان کرد، با این حال، 84 درصد از سازمان‌ها در منطقه آسیا و اقیانوسیه معتقدند که استفاده از مدل‌های مولد هوش مصنوعی مزیت رقابتی قابل‌توجهی را برای ،ب‌وکارشان فراهم می‌کند. این شرکت تحقیقاتی افزود: با انجام این کار، این شرکت ها امیدوارند به دستاوردهایی در بهره وری عملیاتی و بهره وری کارکنان، بهبود رضایت مشتری و توسعه مدل های تجاری جدید دست یابند.

همچنین: بهترین چت ربات های هوش مصنوعی: ChatGPT و سایر جایگزین های قابل توجه

IDC همچنین انتظار دارد که ا،ر سازمان‌های منطقه در سال جاری هزینه‌های مربوط به فناوری اطلاعات لبه را افزایش دهند، به طوری که انتظار می‌رود 75 درصد از داده‌های سازم، تا سال 2025، خارج از مراکز داده سنتی و فضای ابری در لبه ایجاد و پردازش شوند.

ال،یس کراول، CTO، آسیا و اقیانوسیه، اینتل ژاپن گفت: «برای دستیابی به هوش مصنوعی همه جا، فناوری‌های مورد استفاده باید دسترسی، انعطاف‌پذیری و شفافیت را برای افراد، صنایع و جامعه به‌،وان یک کل فراهم کنند.» از آنجایی که شاهد رشد فزاینده سرمایه‌گذاری‌های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه‌های بلوغ هوش مصنوعی را به شیوه‌ای مسئولانه و متفکرانه بسازند.»

بازیگران صنعت و ،ت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را ترویج می کنند و مصرف کنندگان بدانند که سیستم های هوش مصنوعی “عادلانه، قابل توضیح و ایمن” هستند. با این حال، به نظر می رسد این شفافیت هنوز در برخی از جنبه های کلیدی وجود ندارد.

وقتی از ZDNET پرسیدم که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل‌های زبان باز بزرگ (LLM) و مدل‌های زیربنایی وجود دارد، کراول پاسخ داد: “نه، کافی نیست.”

همچنین: رونق امروزی هوش مصنوعی اگر اکنون اقدام نکنیم، مشکلات اجتماعی را بزرگتر خواهد کرد

او به مطالعه انجام شده توسط محققان دانشگاه استنفورد، موسسه فناوری ماساچوست و پرینستون اشاره کرد که شفافیت 10 مدل اصلی اصلی را ارزیابی ،د و پلتفرمی که بالاترین امتیاز را دریافت کرد تنها امتیاز 54٪ را دریافت کرد. او در یک کنفرانس مطبوعاتی در این اج، گفت: “این نشانه ش،ت است.”

طبق این مطالعه، میانگین امتیاز فقط 37٪ بود، که مدل ها را بر اساس 100 شاخص از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد داده های آموزشی، ساختار مدل و خطرات، و سیاست های حاکم بر استفاده از آن ارزیابی کرد. . Llama 2 متا با 54% بالاترین امتیاز را به خود اختصاص داد، پس از آن Bloomz BigScience با 53% و GPT-4 OpenAI با 48% قرار گرفتند.

محققان خاطرنشان ،د: “هیچ توسعه‌دهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نشده است، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.”

شفافیت ضروری است

کراول ابراز امیدواری کرد که این وضعیت با در دسترس بودن استانداردها و سازمان هایی که این تحولات را رصد می کنند تغییر کند. او افزود که شکایت هایی مانند پرونده ای که نیویورک تایمز علیه OpenAI و مایکروسافت مطرح کرد، می تواند به شفافیت حقوقی بیشتر کمک کند.

وی خاطرنشان کرد، به ویژه، باید چارچوب های حاکمیتی مشابه قو،ن حاکمیت داده، از جمله مقررات کلی حفاظت از داده های اروپا وجود داشته باشد، تا کاربران بدانند داده های آنها چگونه استفاده می شود.

او گفت که شرکت‌ها همچنین باید بر اساس نحوه جمع‌آوری داده‌هایشان و اینکه کجا می‌رود، تصمیمات ،ید بگیرند و افزود که افزایش تنش از سوی کاربر، که خواستار شفافیت بیشتر هستند، ممکن است به اقدامات صنعت دامن بزند.

در حقیقت، 54 درصد از کاربران هوش مصنوعی به داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی اعتماد ندارند. ایالات متحده و بریت،ا. آلمان

همچنین: هوش مصنوعی و کاربردهای پیشرفته زیرساخت های تکنولوژیکی موجود را تحت فشار قرار داده اند

کراول با استناد به گزارش پژوهشی گروه مشاوره بوستون گفت، برخلاف تصور عمومی، دقت نباید به قیمت شفافیت تمام شود.

این گزارش نحوه عملکرد مدل‌های هوش مصنوعی جعبه سیاه و سفید را در نزدیک به 100 مجموعه داده طبقه‌بندی معیار، از جمله قیمت‌گذاری، تشخیص پزشکی، پیش‌بینی ورش،تگی و رفتار ،ید بررسی می‌کند. برای تقریباً 70٪ از مجموعه داده‌ها، مدل‌های جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید ،د.

در این گزارش آمده است: «به عبارت دیگر، در بیشتر مواقع، هیچ معامله ای بین دقت و قابلیت تفسیر وجود نداشت. “یک مدل قابل تفسیرتر را می توان بدون به خطر انداختن دقت استفاده کرد.”

مارشال گفت: با این حال، شفافیت کامل همچنان یک چالش باقی می‌ماند، او خاطرنشان کرد که بحث‌ها در مورد توضیح‌پذیری هوش مصنوعی زم، پر سر و صدا بود، اما از آن زمان به پایان رسیده است زیرا پرداختن به آن مشکلی است.

همچنین: 5 راه برای آماده شدن برای تأثیر هوش مصنوعی مولد بر حرفه فناوری اطلاعات

لارنس لیو، مدیر نوآوری هوش مصنوعی در آژانس ،تی AI سنگاپور (AISG)، گفت که سازمان‌های پشت مدل‌های اصلی ممکن است به دلیل ترس از شکایت، مایل نباشند در مورد داده‌های آموزشی خود صحبت کنند.

وی افزود که انتخابی بودن در مورد داده های آموزشی بر میزان دقت هوش مصنوعی نیز تأثیر می گذارد.

لیو توضیح داد که AISG به دلیل مشکلات احتمالی در استفاده از همه مجموعه‌های در دسترس عموم از طریق ابتکار LLM خود، SEA-LION (زبان‌های آسیای ج، شرقی در یک شبکه) استفاده نمی‌کند.

او گفت در نتیجه، معماری منبع باز به اندازه برخی از MBA های اصلی موجود در بازار امروزی نیست. او خاطرنشان کرد که این یک “توازن ظریف” است و افزود که دستیابی به میزان دقت بالا به م،ای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر «اخلاقی» و به خطر انداختن مجموعه‌های داده خاص به م،ای نرخ دقت پایین‌تری نسبت به آن چیزی است که توسط بازیگران تجاری به دست می‌آید.

لیو گفت، اگرچه سنگاپور استانداردهای اخلاقی بالایی را با SEA-LION انتخاب کرده است، هنوز هم اغلب توسط کاربر، که خواستار استفاده از مجموعه داده های بیشتری برای بهبود دقت LLM هستند، به چالش کشیده می شود.

گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگر، خود را در مورد امکان استفاده از آثارشان برای آموزش SEA-LION ابراز ،د. از جمله شکایات آنها عدم تعهد آشکار به “پرداخت غرامت عادلانه” برای استفاده از همه نوشته ها است. آنها همچنین به نیاز به وضوح و به رسمیت شناختن صریح این نکته اشاره ،د که قو،ن مالکیت م،وی و کپی رایت کشور و ترتیبات قراردادی موجود در ایجاد و آموزش دارندگان LLM حمایت خواهند شد.

شفافیت در مورد منبع باز

به گفته مت هی،، مدیرعامل Red Hat، این شناخت باید به چارچوب‌های منبع باز نیز گسترش یابد که در آن برنامه‌های هوش مصنوعی می‌توانند توسعه یابند.

هی، در طی یک کنفرانس مطبوعاتی مجازی این هفته در پس‌زمینه اج، کلاه قرمزی 2024 گفت که این مدل‌ها بر اساس مقادیر زیادی از داده‌های ارائه شده توسط افرادی که حق چاپ را دارند آموزش داده می‌شوند و استفاده مسئولانه از این سیستم‌های هوش مصنوعی به م،ای پایبندی به مجوزها است. که تحت آن ایجاد شده اند.

همچنین: آیا می خواهید در هوش مصنوعی کار کنید؟ چگونه حرفه خود را در 5 مرحله تغییر دهید

این امر در مورد مدل‌های منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپی لفت مانند GPL و مجوزهای مجاز مانند Apache اعمال می‌شود.

وی بر اهمیت شفافیت و مسئولیت درک مدل های داده و برخورد با ،وجی های تولید شده توسط مدل ها تاکید کرد. برای ایمنی و امنیت معماری‌های هوش مصنوعی، اطمینان از اینکه مدل‌ها از سوء استفاده‌های م،ب محافظت می‌شوند، ضروری است.

Red Hat مشتاقانه منتظر است تا با مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) که در اج، از آن رونمایی کرد، به مشتریان خود در این تلاش ها کمک کند. این محصول از چهار جزء شامل زبان Open Granite و نمونه کد از جامعه InstructLab تشکیل شده است که توسط Red Hat پشتیب، و جبران می شود.

به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در به کارگیری هوش مصنوعی با آن مواجه هستند، از جمله مدیریت برنامه ها و چرخه عمر مدل می پردازد.

او گفت: “(RHEL AI) یک پلت فرم مدل سازی هسته ای ایجاد می کند تا مدل های GenAI دارای مجوز منبع باز را به شرکت ارائه دهد.” هدف Red Hat از طریق ابزارهای هم‌ترازی InstructLab، مدل‌های گر،تی و هوش مصنوعی RHEL، استفاده از مزایای پروژه‌های منبع باز واقعی – قابل دسترسی آزاد، قابل استفاده مجدد، شفاف و باز برای مشارکت – برای GenAI در تلاش برای رفع این موانع است.



منبع: https://www.zdnet.com/article/transparency-is-sorely-lacking-amid-growing-ai-interest/#ftag=RSSbaffb68

منتشر شده در
دسته‌بندی شده در اخبار