اطلاعات جدیدی منتشر شده که نشان می‌دهد استفاده از ابزارهای هوش مصنوعی مانند چت‌جی‌پی‌تی ChatGPT می‌تواند خطراتی داشته باشد و حتی اسرار شرکت‌ها نیز به خطر بیاندازد. این ادعا را یک شرکت تحلیلی و سرمایه‌گذاری کرده که استفاده گسترده از ابزارهای هوش مصنوعی برای شرکت‌ها خوب نیست. در ادامه به بررسی این مساله می‌پردازیم. همچنین می‌توانید مقاله چت جی پی تی ChatGPT چیست و آیا این تکنولوژی خطرناک است؟ را هم مطالعه کنید تا اطلاعات خود را در این مورد افزایش دهید. 

خطرات چت جی پی تی

خطرات احتمالی هوش مصنوعی

 ابزارهای هوش مصنوعی زایا مثل ChatGPT استفاده می‌کنند، احتمالاً اطلاعات محرمانه مشتریان و اسرار تجاری خود را در معرض خطر قرار می‌دهند. استفاده گسترده از این ابزارها اگرچه می‌تواند فوایدی داشته باشد، اما ظاهراً بی‌ضرر هم نیست.

به گزارش بلومبرگ، شرکت سرمایه‌گذاری Team8 می‌گوید استفاده از چت‌بات‌های هوش مصنوعی می‌تواند شرکت‌ها را مستعد افشای اطلاعات و شکایت‌های قضایی کند. تحلیلگران باور دارند که این چت‌بات‌ها می‌توانند توسط هکرها برای دستیابی به اطلاعات حساس شرکتی یا انجام عملیات علیه یک کسب‌وکار استفاده شوند.

ابزارهای هوش مصنوعی با اطلاعات موجود در اینترنت تعلیم داده شده‌اند، اما حالا با رواج این ابزارها در میان مردم، اگر اطلاعات محرمانه دولتی یا شرکت‌های خصوصی به آن‌ها داده شود، حذف این اطلاعات از حافظه چت‌بات‌ها کار سختی خواهد بود.

تحلیلگران Team8 می‌گویند: «استفاده تجاری از هوش مصنوعی زایا با ارائه مستقیم داده یا از طریق API می‌تواند به دستیابی و پردازش اطلاعات حساس، مالکیت‌های فکری، کد منبع، اسرار تجاری و دیگر داده‌ها منجر شود.» این شرکت باور دارد که ریسک این مسئله بالاست، اما اگر تدابیر ایمنی مناسبی را در نظر بگیریم، می‌تواند این ریسک را کنترل کرد.

جت چی پی تی

به خطر افتادن اطلاعات کاربران ابزارهای هوش مصنوعی

البته Team8 متذکر شده است که مدل‌های زبانی بزرگ درحال‌حاضر نمی‌توانند در لحظه اطلاعات خود را به‌روز کنند و به همین خاطر اطلاعات یک کاربر را در پاسخ کاربر بعدی ارائه نمی‌کنند. اما شرکت‌ها می‌توانند از ورودی‌های کاربر در آموزش نسخه‌های بعدی ابزارهای هوش مصنوعی استفاده کنند.

این گزارش از سه ریسک خطرناک دیگر در استفاده از ابزارهای هوش مصنوعی هم نام برده است. برای مثال، در سمت کاربر، اگر اپلیکیشن‌های شخص ثالث از API یک هوش مصنوعی زایا استفاده کنند، چنانچه این API به خطر بیفتد، امکان دسترسی به ایمیل و مرورگر وب کاربران وجود خواهد داشت.

از طرف دیگر، این ریسک وجود دارد که هوش مصنوعی تبعیض را گسترش دهد، به اعتبار شرکت‌ها آسیب بزند یا آن‌ها را با مشکلات کپی‌رایت روبه‌رو کند. شایان ذکر است که «ان جانسون»، معاون سازمانی مایکروسافت و چندین مدیر امنیت اطلاعات در شرکت‌های آمریکایی ازجمله کسانی بوده‌اند که در تنظیم این گزارش مشارکت کرده‌اند.

در مجموع باید منتظر گزارش‌های بیشتری در این زمینه شد تا بتوان نتیجه گیری دقیقی‌تری درباره خطرناک بودن و نبودن این موضوع داشت.