یک نظرسنجی جدید نشان می‌دهد بسیاری از کارکنان در بخش‌های متفاوت در امریکا برای انجام کارهای پایه‌ای‌شان به «چت‌جی‌پی‌تی» (ChatGPT) روی آورده‌اند

gpt

به گزارش همشهری آنلاین به نقل از رویترز شرکت‌ها در سراسر جهان در حال بررسی برای بهترین استفاده از ChatGPT، برنامه چت‌باتی که از هوش مصنوعی(AI) مولد (generative) برای برقراری مکالمه با کاربران و پاسخ دادن به مجموعه‌ای از «پرامپت‌های» (یا پیام‌واره‌های) آنها استفاده می‌کند. اما شرکت‌های امنیت سایبری نگران هستند که چنین روندی می‌تواند به نقض مالکیت فکری و درز کردن راهبردهای تجاری شرکت‌ها بینجامد.

نمونه‌های موردی استفاده‌های افراد از چت‌جی‌پی‌تی کمک گرفتن برای انجام کارهای روزانه‌ای مانند آماده کردن پیش‌نویس ای‌میل‌ها، خلاصه کردن اسناد و انجام پژوهش‌های مقدماتی است.

حدود ۲۸ درصد از پاسخ‌دهندگان به نظرسنجی آنلاین رویترز-ایپسوس در مورد هوش مصنوعی در فاصله ۱۱ تا ۱۷ ژوئیه گفتند که به طور مرتب در محل کارشان از چت‌جی‌پی‌تی استفاده می‌کنند، و در مقابل فقط ۲۲ درصد آنها گفتند که مدیرانشان به طور واضح اجازه استفاده از چنین ابزارهای خارجی را به آنها داده‌اند.

این نظرسنجی که از ۲۶۳۶۵ نفر در سراسر آمریکا انجام شده است، «فاصله اعتبار» ؟(یک معیار دقت) حدود ۲ درصد داشته است.

حدود ۱۰ درصد افراد مورد پرسش قرار گرفته گفتند که روسایشان به طور صریح استفاده از ابرازهای خارجی هوش مصنوعی را برایشان ممنوع کرده‌اند، در حالیکه حدود ۲۵ درصد گفتند که نمی‌دانند آییا شرکتشان اجازه استفاده از این فناوری را به آنها داده است یا نه.

چت‌جی‌پی‌تی پس از ارائه‌شدنش در ماه نوامبر (آذر ماه گذشته) به یکی از اپلیکیشن‌های با سریع‌ترین رشد در تاریخ بدل شده است. این چت‌بات هم باعث ایجاد هیجان و هم اعلام هشدار شده است و سازنده آن شرکت«اوپن‌ای‌آی»  (OpenAI) را به خصوص در اروپا در تعارض با مقامات ناظر قرار داده است، چرا که گرداوری توده‌ای داده‌ها بوسیله این شرکت انتقاد سازمان‌های حامی حریم خصوصی را برانگیخته است.

بازبین‌های انسانی از سایر شرکت‌ها ممکن است هر کدام از چت‌های تولیدشده را بخوانند و پژهشگران دریافته‌اند که هوش مصنوعی با خصوصیات مشابه می‌تواند داده‌های جذب‌کرده در جریان تعلیم‌ش را بازتولید کند و به این ترتیب خطر افشای اطلاعات تجاری بوجود می‌آید.

شرکت OpenAI از پاسخ به این پرسش که پیامدهای استفاده کارمندان از چت‌جی‌پی‌تی چیست، خودداری کرده است، اما به یک پست اخیر وبلاگ این شرکت اشاره کرده است که به طرف‌های تجاری‌اش اطمینان می‌دهد داده‌هایشان برای آموزش دادن بیشتر این چت‌بات مورد استفاده قرار نخواهد گرفت، مگر اینکه اجازه صریحی در این مورد داده شده باشد.

هنگام استفاده از ابزار هوش مصنوعی شرکت گوگل، یعنی بارد (bard) نیز داده‌هایی مانند متن، محل و سایر اطلاعات کاربری گردآوری می‌شود. اما گوگل به کاربرانش اجازه می‌دهد فعالیت‌های گذشته‌شان را از حسابشان پاک کنند و تقاضا کنند که محتوای خورانده شده به AI حذف شود.

مایکروسافت تا به حال در این باره اظهارنظری نکرده است.

واکنش‌های متفاوت شرکت‌ها

شرکت‌های گوناگون واکنش‌های متفاوتی به این گرایش به استفاده از ابزارهای هوش مصنوعی بوسیله کارکنانش نشان داده‌اند. یکی از مدیران شرکت «تیندر» مستقر در آمریکا می‌گوید کارکنان از چت‌جی‌پی‌ت برای «کارهای بی‌ضرری» مانند نوشتن ای‌میل استفاده می‌کنند، گرچه این شرکت به طور رسمی اجازه این کار را نداده است.

شرکت سامسونگ نیز در ماه مه (اردیبهشت) پس از آنکه کشف کرد یکی از کارکناکش کدهای حساس را به این پلتفرم وارد کرده است، کارکنانش را در سراسر جهان از استفاده از چت‌جی‌پی‌تی و ابزارهای مشابه هوش مصنوعی ممنوع کرد

شرکت آلفابت صاحب گوگل نیز درباره چگونگی استفاده از چت‌بات‌هایی از جمله بارد که خود گوگل صاحب آن است، به کارکنانش هشدار داده است. گوگل گفته است که گرچه بارد ممکن است پیشنهادهای نامطلوبی در کدنویسی بدهد، به برنامه‌نویس‌ها کمک می‌کند.

برخی از شرکت‌های دیگر هم می‌گویند از چت‌جی‌پی‌تی و پلتفرم‌های مشابه استقبال می‌کنند، اما امنیت را هم در نظردارند.

کد خبر 779511

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha