ترندهای روز

مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید

افق میهن پایگاه داده اخبار تحلیلی (ofoghmihan.ir):

ظاهرا ، شما نباید اسرار زندگی خود را با چت با هوش مصنوعی مانند GPT CHAT به اشتراک بگذارید. این توصیه دیگر صرفاً چشم انداز متخصصان مستقل بلکه مشهورترین مدل هوش مصنوعی جهان نیست.

سام آلتمن ، مدیرعامل OpenAI ، سازنده چتپپ ، این هفته را در مصاحبه با تئو ون ، پادکست این هفته گذشته ، در مورد این موضوع بحث کرد.

وی تأکید کرد که اگرچه گفتگوهای شما با هوش مصنوعی باید از محرمانه بودن بالایی برخوردار باشد ، اما در حال حاضر قانونی برای این کار وجود ندارد.

در بخشی از مکالمه ، تئو یکی گفت که یکی از دلایلی که استفاده از ابزارهای هوش مصنوعی است این است که “او نمی داند چه کسی می خواهد اطلاعات شخصی خود را داشته باشد” و آقای آلتمن پاسخ داد ، “من فکر می کنم این یک نگرانی منطقی است.”

در سالهای اخیر ، بسیاری از کاربران استفاده از چت ها به عنوان درمانگر ، پزشک یا مشاور حقوقی را آغاز کرده اند و این مسئله برای حفظ حریم خصوصی به مشکل تبدیل شده است.

هیچ قانون خاصی برای محرمانه بودن این مکالمات وجود ندارد و آنچه در واقع برای این داده ها اتفاق می افتد مبهم است. البته مشکلات دیگری نیز وجود دارد ، مانند چت ها ممکن است توصیه های خوبی را ارائه ندهند.

آقای آلتمن گفت: “مردم ، به ویژه جوانان ، از این ابزار مانند درمانگر و یک مربی زندگی استفاده می کنند.” به عنوان مثال ، آنها می گویند من یک مشکل عاطفی دارم ، چه کاری باید انجام دهم؟ “اگر با یک وکیل یا پزشک همین حرف را بزنید ، مکالمات شما تحت حمایت قانون است.”

وی گفت: “اگر در مورد شخصی ترین مسائل زندگی خود و سپس یک دادخواست صحبت کنید ، ممکن است شرکت ما مجبور شود این اطلاعات را فاش کند.” من فکر می کنم این بسیار در هم تنیده است. “ما باید برای چت هوش مصنوعی همان سطح حریم خصوصی را داشته باشیم که باید با درمانگر یا یک وکیل صحبت کنیم.”

سام آلتمن اعتراف کرد که مذاکرات شخصی مردم با چت لزوماً محرمانه نیست ، زیرا در حال حاضر هیچ مبنای قانونی برای محافظت از اطلاعات حساس و شخصی وجود ندارد.

وی تأکید کرد که این مسئله باید “فوریت” باشد و افزود که سیاست گذاران نیز با او اشتباه گرفته اند.

همچنین این نگرانی وجود دارد که وقتی از یک CHIPT مشابه یا ابزاری مشابه برای مکالمه درمانی استفاده می کنید ، ممکن است برخی از این داده ها وقتی شرکت بیمه یا شخص دیگری از شما همان سؤال را می پرسند ، فاش شود.

نگرانی های حقوقی در مورد محرمانه بودن تنها دلیل این نیست که متخصصان معتقدند که مردم باید از استفاده از چت ها به عنوان درمانگر خودداری کنند. یک مطالعه جدید در دانشگاه استنفورد نشان داده است که چت های هوش مصنوعی در مورد برخی از بیماری های روانی اظهارنظرهای نامناسب دارند.

منبع: Euronews

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا