وال استریت ژورنال در گزارشی بررسی کرد؛
نبایدهای استفاده از هوش مصنوعی
گزارش ویژه
بزرگنمايي:
بازار آریا - برخی از محققان هوش مصنوعی میگویند باید در انتخاب آنچه که به این ابزارهای شبیه انسان میگوییم، دقت بیشتری داشته باشیم. برخی اطلاعات بهویژه خطرناک هستند که باید از اشتراکگذاری آنها اجتناب کرد.
گروه آنلاین روزنامه دنیای اقتصاد- نیلوفر ادیبنیا؛ وال استریت ژورنال در گزارشی به نبایدهای استفاده ازهوش مصنوعی پرداخته است. نویسنده در این گزارش تجربیات خود در استفاده از هوش مصنوعی را بازگو می کند. او در این گزارش نوشته است: «من در چند سال گذشته از چتجیپیتی اپنایآی چیزهای زیادی یاد گرفتهام. و این ربات هم چیزهای زیادی درباره من یاد گرفته است. هوش مصنوعی از طریق گفت و گوهای متعددمان اطلاعاتی بهدست آورد و آنها را در حافظه خود ذخیره کرد. به یاد داشت که من تخممرغ دوست دارم، یک نوزاد دارم که برای خوابیدن شیر میخورد و باید تمرینات ورزشیام را بهخاطر کمر دردم تغییر دهم."
به گفته نویسنده همچنین حتی چیزهای شخصیتری را به یاد داشت که در اینجا تکرار نمیکنم.
مهم نیست کدام چتبات را انتخاب میکنید، هرچه بیشتر به اشتراک بگذارید، این ابزارها میتوانند مفیدتر باشند. بیماران آزمایشهای خون خود را برای تجزیه و تحلیل آپلود میکنند و مهندسان بخشهایی از کدهای منتشرنشده را برای کمک به رفع باگ ها در آن قرار میدهند.
برخی از محققان هوش مصنوعی میگویند باید در انتخاب آنچه که به این ابزارهای شبیه انسان میگوییم، دقت بیشتری داشته باشیم. برخی اطلاعات بهویژه خطرناک هستند که باید از اشتراکگذاری آنها اجتناب کرد؛ مانند شماره تأمین اجتماعی یا دادههای اختصاصی شرکت شما.
براساس این گزارش، شرکتهای هوش مصنوعی برای بهبود مدلهای خود به دادهها نیاز دارند، اما حتی آنها هم نمیخواهند اسرار ما را داشته باشند. از سوی اپنایآی، بارها تاکیده شده است که لطفا هیچ اطلاعات حساسی را در گفت وگوهای خود به اشتراک نگذارید و گوگل از کاربران جمنی خود خواهش میکند لطفا اطلاعات محرمانه یا دادههایی را که نمیخواهید بررسیکننده آنها را ببیند، وارد نکنید.
چتباتها میتوانند به طرز عجیبی شبیه انسان به نظر برسند، که موجب میشود که مردم در گفت وگوهای خود با آنها به طور غیرمنتظرهای باز و صادق باشند. به گفته جنیفر کینگ، عضو مؤسسه هوش مصنوعی انسانی استنفورد زمانی که چیزی را در یک چتبات تایپ میکنید مالکیت آن را از دست میدهید. تاریخچه گفت وگوهای شما ممکن است در صورت وقوع نفوذ امنیتی به بخشی از دادههای هکشده تبدیل شود یا در صورت صدور حکم قضایی، در اختیار مراجع قانونی قرار گیرد. برای محافظت از حساب خود، استفاده از رمز عبور قوی و فعالسازی احراز هویت چندمرحلهای، ضروری است.
همچنین توصیه میشود از وارد کردن اطلاعات زیر در دستورات خود خودداری کنید:
اطلاعات هویتی: این اطلاعات شامل شماره تأمین اجتماعی، گواهینامه رانندگی و گذرنامه، همچنین تاریخ تولد، آدرس و شماره تلفن شما میشود.
نتایج پزشکی: محرمانگی، یک ارزش اساسی در مراقبتهای بهداشتی است تا از تبعیض و شرمندگی جلوگیری شود، اما چتباتها معمولا بخشی از حفاظت ویژهای که برای دادههای بهداشتی در نظر گرفته شدهاند، نیستند. اگر وسوسه شدید از هوش مصنوعی بخواهید تا نتایج آزمایشگاهی شما را تفسیر کند، تصویر را برش داده یا سند را ویرایش کنید.
حسابهای مالی: از شمارههای حساب بانکی و سرمایهگذاری خود محافظت کنید، زیرا ممکن است از آنها برای نظارت یا دسترسی به وجوه شما استفاده شود.
اطلاعات اختصاصی شرکتی: اگر از نسخههای عمومی چتباتهای محبوب برای امور کاری استفاده میکنید، ممکن است بهطور ناخواسته اطلاعات مشتریان یا اسرار تجاری غیرعمومی را افشا کنید؛ حتی با انجام کاری بهظاهر ساده مانند نوشتن یک ایمیل. به عنوان مثال، پس از افشای کد منبع داخلی توسط یکی از مهندسان، شرکت سامسونگ استفاده از چتجیپیتی را ممنوع کرد. اگر هوش مصنوعی در شغل شما کاربرد دارد، بهتر است شرکتتان از نسخه سازمانی این ابزارها استفاده کند یا یک هوش مصنوعی سفارشی با تدابیر امنیتی مخصوص به شرکت راهاندازی کند.
ورود به سیستمها: با گسترش استفاده از عوامل هوش مصنوعی که توانایی انجام وظایف واقعی را دارند، دلایل بیشتری برای واگذاری اطلاعات حسابها به چتباتها بهوجود آمده است. اما باید در نظر داشت که این ابزارها برای ایفای نقش گاوصندوقهای دیجیتال طراحی نشدهاند. رمزهای عبور، پینها و سوالات امنیتیتان را تنها در مدیریت رمز عبور مطمئن ذخیره کنید.
-
سه شنبه ۱۹ فروردين ۱۴۰۴ - ۰۰:۵۰:۳۶
-
۷ بازديد
-
روزنامه دنیای اقتصاد
-
بازار آریا
لینک کوتاه:
https://www.bazarearya.ir/Fa/News/1289102/