هنوز شفافیت در مورد نحوه آموزش مدل های اساسی وجود ندارد و این شکاف می تواند منجر به افزایش تنش با کاربران شود زیرا سازمان های بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.
طبق IDC، انتظار میرود در منطقه آسیا و اقیانوسیه، به استثنای چین، هزینههای هوش مصنوعی با رشد ۲۸.۹ درصدی از ۲۵.۵ میلیارد دلار در سال ۲۰۲۲ به ۹۰.۷ میلیارد دلار تا سال ۲۰۲۷ برسد. این شرکت تحقیقاتی ،ن زده است که بخش عمده ای از این هزینه، 81 درصد، صرف برنامه های کاربردی هوش مصنوعی پیش بینی و توضیحی می شود.
همچنین: پنج روش برای استفاده مسئولانه از هوش مصنوعی
کریس مارشال، معاون داده، تجزیه و تحلیل، هوش مصنوعی، پایداری و تحقیقات صنعتی در IDC خاطرنشان کرد، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی در منطقه را به خود اختصاص خواهد داد. برای آسیا و اقیانوسیه
مارشال که این هفته در اج، هوش مصنوعی اینتل در سنگاپور سخنر، می کرد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری به هوش مصنوعی فراتر از هوش مصنوعی مولد نیاز دارد.
IDC خاطرنشان کرد، با این حال، 84 درصد از سازمانها در منطقه آسیا و اقیانوسیه معتقدند که استفاده از مدلهای مولد هوش مصنوعی مزیت رقابتی قابلتوجهی را برای ،بوکارشان فراهم میکند. این شرکت تحقیقاتی افزود: با انجام این کار، این شرکت ها امیدوارند به دستاوردهایی در بهره وری عملیاتی و بهره وری کارکنان، بهبود رضایت مشتری و توسعه مدل های تجاری جدید دست یابند.
همچنین: بهترین چت ربات های هوش مصنوعی: ChatGPT و سایر جایگزین های قابل توجه
IDC همچنین انتظار دارد که ا،ر سازمانهای منطقه در سال جاری هزینههای مربوط به فناوری اطلاعات لبه را افزایش دهند، به طوری که انتظار میرود 75 درصد از دادههای سازم، تا سال 2025، خارج از مراکز داده سنتی و فضای ابری در لبه ایجاد و پردازش شوند.
ال،یس کراول، CTO، آسیا و اقیانوسیه، اینتل ژاپن گفت: «برای دستیابی به هوش مصنوعی همه جا، فناوریهای مورد استفاده باید دسترسی، انعطافپذیری و شفافیت را برای افراد، صنایع و جامعه به،وان یک کل فراهم کنند.» از آنجایی که شاهد رشد فزاینده سرمایهگذاریهای هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایههای بلوغ هوش مصنوعی را به شیوهای مسئولانه و متفکرانه بسازند.»
بازیگران صنعت و ،ت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را ترویج می کنند و مصرف کنندگان بدانند که سیستم های هوش مصنوعی “عادلانه، قابل توضیح و ایمن” هستند. با این حال، به نظر می رسد این شفافیت هنوز در برخی از جنبه های کلیدی وجود ندارد.
وقتی از ZDNET پرسیدم که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدلهای زبان باز بزرگ (LLM) و مدلهای زیربنایی وجود دارد، کراول پاسخ داد: “نه، کافی نیست.”
همچنین: رونق امروزی هوش مصنوعی اگر اکنون اقدام نکنیم، مشکلات اجتماعی را بزرگتر خواهد کرد
او به مطالعه انجام شده توسط محققان دانشگاه استنفورد، موسسه فناوری ماساچوست و پرینستون اشاره کرد که شفافیت 10 مدل اصلی اصلی را ارزیابی ،د و پلتفرمی که بالاترین امتیاز را دریافت کرد تنها امتیاز 54٪ را دریافت کرد. او در یک کنفرانس مطبوعاتی در این اج، گفت: “این نشانه ش،ت است.”
طبق این مطالعه، میانگین امتیاز فقط 37٪ بود، که مدل ها را بر اساس 100 شاخص از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد داده های آموزشی، ساختار مدل و خطرات، و سیاست های حاکم بر استفاده از آن ارزیابی کرد. . Llama 2 متا با 54% بالاترین امتیاز را به خود اختصاص داد، پس از آن Bloomz BigScience با 53% و GPT-4 OpenAI با 48% قرار گرفتند.
محققان خاطرنشان ،د: “هیچ توسعهدهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نشده است، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.”
شفافیت ضروری است
کراول ابراز امیدواری کرد که این وضعیت با در دسترس بودن استانداردها و سازمان هایی که این تحولات را رصد می کنند تغییر کند. او افزود که شکایت هایی مانند پرونده ای که نیویورک تایمز علیه OpenAI و مایکروسافت مطرح کرد، می تواند به شفافیت حقوقی بیشتر کمک کند.
وی خاطرنشان کرد، به ویژه، باید چارچوب های حاکمیتی مشابه قو،ن حاکمیت داده، از جمله مقررات کلی حفاظت از داده های اروپا وجود داشته باشد، تا کاربران بدانند داده های آنها چگونه استفاده می شود.
او گفت که شرکتها همچنین باید بر اساس نحوه جمعآوری دادههایشان و اینکه کجا میرود، تصمیمات ،ید بگیرند و افزود که افزایش تنش از سوی کاربر، که خواستار شفافیت بیشتر هستند، ممکن است به اقدامات صنعت دامن بزند.
در حقیقت، 54 درصد از کاربران هوش مصنوعی به دادههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی اعتماد ندارند. ایالات متحده و بریت،ا. آلمان
همچنین: هوش مصنوعی و کاربردهای پیشرفته زیرساخت های تکنولوژیکی موجود را تحت فشار قرار داده اند
کراول با استناد به گزارش پژوهشی گروه مشاوره بوستون گفت، برخلاف تصور عمومی، دقت نباید به قیمت شفافیت تمام شود.
این گزارش نحوه عملکرد مدلهای هوش مصنوعی جعبه سیاه و سفید را در نزدیک به 100 مجموعه داده طبقهبندی معیار، از جمله قیمتگذاری، تشخیص پزشکی، پیشبینی ورش،تگی و رفتار ،ید بررسی میکند. برای تقریباً 70٪ از مجموعه دادهها، مدلهای جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید ،د.
در این گزارش آمده است: «به عبارت دیگر، در بیشتر مواقع، هیچ معامله ای بین دقت و قابلیت تفسیر وجود نداشت. “یک مدل قابل تفسیرتر را می توان بدون به خطر انداختن دقت استفاده کرد.”
مارشال گفت: با این حال، شفافیت کامل همچنان یک چالش باقی میماند، او خاطرنشان کرد که بحثها در مورد توضیحپذیری هوش مصنوعی زم، پر سر و صدا بود، اما از آن زمان به پایان رسیده است زیرا پرداختن به آن مشکلی است.
همچنین: 5 راه برای آماده شدن برای تأثیر هوش مصنوعی مولد بر حرفه فناوری اطلاعات
لارنس لیو، مدیر نوآوری هوش مصنوعی در آژانس ،تی AI سنگاپور (AISG)، گفت که سازمانهای پشت مدلهای اصلی ممکن است به دلیل ترس از شکایت، مایل نباشند در مورد دادههای آموزشی خود صحبت کنند.
وی افزود که انتخابی بودن در مورد داده های آموزشی بر میزان دقت هوش مصنوعی نیز تأثیر می گذارد.
لیو توضیح داد که AISG به دلیل مشکلات احتمالی در استفاده از همه مجموعههای در دسترس عموم از طریق ابتکار LLM خود، SEA-LION (زبانهای آسیای ج، شرقی در یک شبکه) استفاده نمیکند.
او گفت در نتیجه، معماری منبع باز به اندازه برخی از MBA های اصلی موجود در بازار امروزی نیست. او خاطرنشان کرد که این یک “توازن ظریف” است و افزود که دستیابی به میزان دقت بالا به م،ای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر «اخلاقی» و به خطر انداختن مجموعههای داده خاص به م،ای نرخ دقت پایینتری نسبت به آن چیزی است که توسط بازیگران تجاری به دست میآید.
لیو گفت، اگرچه سنگاپور استانداردهای اخلاقی بالایی را با SEA-LION انتخاب کرده است، هنوز هم اغلب توسط کاربر، که خواستار استفاده از مجموعه داده های بیشتری برای بهبود دقت LLM هستند، به چالش کشیده می شود.
گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگر، خود را در مورد امکان استفاده از آثارشان برای آموزش SEA-LION ابراز ،د. از جمله شکایات آنها عدم تعهد آشکار به “پرداخت غرامت عادلانه” برای استفاده از همه نوشته ها است. آنها همچنین به نیاز به وضوح و به رسمیت شناختن صریح این نکته اشاره ،د که قو،ن مالکیت م،وی و کپی رایت کشور و ترتیبات قراردادی موجود در ایجاد و آموزش دارندگان LLM حمایت خواهند شد.
شفافیت در مورد منبع باز
به گفته مت هی،، مدیرعامل Red Hat، این شناخت باید به چارچوبهای منبع باز نیز گسترش یابد که در آن برنامههای هوش مصنوعی میتوانند توسعه یابند.
هی، در طی یک کنفرانس مطبوعاتی مجازی این هفته در پسزمینه اج، کلاه قرمزی 2024 گفت که این مدلها بر اساس مقادیر زیادی از دادههای ارائه شده توسط افرادی که حق چاپ را دارند آموزش داده میشوند و استفاده مسئولانه از این سیستمهای هوش مصنوعی به م،ای پایبندی به مجوزها است. که تحت آن ایجاد شده اند.
همچنین: آیا می خواهید در هوش مصنوعی کار کنید؟ چگونه حرفه خود را در 5 مرحله تغییر دهید
این امر در مورد مدلهای منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپی لفت مانند GPL و مجوزهای مجاز مانند Apache اعمال میشود.
وی بر اهمیت شفافیت و مسئولیت درک مدل های داده و برخورد با ،وجی های تولید شده توسط مدل ها تاکید کرد. برای ایمنی و امنیت معماریهای هوش مصنوعی، اطمینان از اینکه مدلها از سوء استفادههای م،ب محافظت میشوند، ضروری است.
Red Hat مشتاقانه منتظر است تا با مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) که در اج، از آن رونمایی کرد، به مشتریان خود در این تلاش ها کمک کند. این محصول از چهار جزء شامل زبان Open Granite و نمونه کد از جامعه InstructLab تشکیل شده است که توسط Red Hat پشتیب، و جبران می شود.
به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در به کارگیری هوش مصنوعی با آن مواجه هستند، از جمله مدیریت برنامه ها و چرخه عمر مدل می پردازد.
او گفت: “(RHEL AI) یک پلت فرم مدل سازی هسته ای ایجاد می کند تا مدل های GenAI دارای مجوز منبع باز را به شرکت ارائه دهد.” هدف Red Hat از طریق ابزارهای همترازی InstructLab، مدلهای گر،تی و هوش مصنوعی RHEL، استفاده از مزایای پروژههای منبع باز واقعی – قابل دسترسی آزاد، قابل استفاده مجدد، شفاف و باز برای مشارکت – برای GenAI در تلاش برای رفع این موانع است.
منبع: https://www.zdnet.com/article/transparency-is-sorely-lacking-amid-growing-ai-interest/#ftag=RSSbaffb68