-
۱۴۰۴-۰۵-۰۵ ۱۰:۴۰ [بهار]
رازهای خود را برای چتجیپیتی فاش نکنید!
-
۱۴۰۴-۰۵-۰۵ ۱۱:۲۱ [فرارو]
رازهای خود را برای «چتجیپیتی» فاش نکنید!
«سم آلتمن»(Sam Altman) مدیرعامل شرکت «اوپنایآی»(OpenAI) معتقد است که صنعت هوش مصنوعی هنوز نتوانسته نحوه محافظت از حریم خصوصی کاربران را در گفتوگوهای حساستر پیدا کند زیرا وقتی پزشک شما یک هوش مصنوعی باشد، هیچ محرمانگی بین پزشک و بیمار وجود ندارد.
-
۱۴۰۴-۰۵-۰۵ ۱۰:۰۹ [برترینها]
رازهای خود را برای «چتجیپیتی» فاش نکنید!
رازهای خود را برای «چتجیپیتی» فاش نکنید!
«سم آلتمن»(Sam Altman) مدیرعامل شرکت «اوپنایآی»(OpenAI) معتقد است که صنعت هوش مصنوعی هنوز نتوانسته نحوه محافظت از حریم خصوصی کاربران را در گفتوگوهای حساستر پیدا کند زیرا وقتی پزشک شما یک هوش مصنوعی باشد، هیچ محرمانگی بین پزشک و بیمار وجود ندارد.
-
۱۴۰۴-۰۵-۰۴ ۱۶:۵۹ [صراطنیوز]
رازهای خود را برای «چتجیپیتی» فاش نکنید!
«سم آلتمن» هشدار داد که هنگام استفاده از «چتجیپیتی» به عنوان درمانگر، هیچ گونه محرمانگی قانونی وجود ندارد و کاربران نباید رازهای خود را با این چتبات هوش مصنوعی در میان بگذارند.
-
۱۴۰۴-۰۵-۰۴ ۱۶:۲۵ [دیدبان ایران]
رازهای خود را برای «چتجیپیتی» فاش نکنید!
«سم آلتمن» هشدار داد که هنگام استفاده از «چتجیپیتی» به عنوان درمانگر، هیچ گونه محرمانگی قانونی وجود ندارد و کاربران نباید رازهای خود را با این چتبات هوش مصنوعی در میان بگذارند.
-
۱۴۰۴-۰۵-۰۵ ۱۱:۰۹ [ایستنا]
سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند
-
۱۴۰۴-۰۵-۰۴ ۰۹:۲۴ [ایتنا]
هشدار سم آلتمن: ChatGPT درمانگر شما نیست!
آیا میدانید گفتوگوهای شخصی شما با ChatGPT ممکن است در دادگاه علیهتان استفاده شود؟ سم آلتمن، مدیرعامل OpenAI، هشدار میدهد که هوش مصنوعی هنوز فاقد محرمانگی قانونی است و این یک تهدید جدی برای کاربران محسوب میشود!
-
۱۴۰۴-۰۵-۰۴ ۱۴:۵۹ [شهرآرانیوز]
چرا نباید مشکلات عاطفی و مسائل خصوصیمان را با هوش مصنوعی در میان بگذاریم؟
سم آلتمن به تازگی گفته هنگامی که از چتباتها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده میکنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.
-
۱۴۰۴-۰۵-۰۴ ۲۲:۴۸ [تحلیل بازار]
هشدار سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند
مدیرعامل OpenAI به افرادی که از چتباتهای هوش مصنوعی بهعنوانی یک درمانگر یا پزشک استفاده میکنند هشدار داده که چیزی بهنام محرمانگی قانونی وجود ندارد.
-
۱۴۰۴-۰۵-۰۵ ۱۰:۲۳
[شفقنا]
هشدار سم آلتمن: اطلاعات شخصی را با Chat GPT در میان نگذارید
-
۱۴۰۴-۰۵-۰۵ ۱۶:۵۰ [انتخاب]
مدیرعامل شرکت سازنده چتجیپیتی: از رباتهای هوشمصنوعی برای مشاوره حقوقی و روانی استفاده نکنید
ظاهرا نباید رازهای مگوی زندگیتان را با یک چتبات هوش مصنوعی مثل چت جیپیتی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروفترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد. سم آلتمن، مدیرعامل «اوپن ایآی» (OpenAI)، شرکت سازنده چت جیپیتی (ChatGPT)، این موضوع را این هفته در مصاحبهای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.
-
۱۴۰۴-۰۵-۰۴ ۱۸:۴۰ [خبرآنلاین]
سم آلتمن هشدار داد: ChatGPT درمانگر نیست، رازهایتان را به آن نگویید!
مدیرعامل OpenAI هشدار داد کاربران نباید در گفتوگو با ChatGPT مسائل شخصی و محرمانهشان را مطرح کنند، چرا که هیچگونه محرمانگی قانونی میان انسان و هوش مصنوعی وجود ندارد.
-
۱۴۰۴-۰۵-۰۵ ۱۵:۲۷ [روزنامه اطلاعات]
اگر با چت جیپیتی درددل میکنید مراقب باشید؛ رازدار نیست!
سم آلتمن مدیرعامل شرکت open .e.i هشدار داد که مراقب باشید چه چیزی به چتجیپیتی میگویید؛ این مدل هوش مصنوعی درمانگر شما نیست و شرکت سازنده نمیتواند محرمانگی آن را کاملا تضمین کند.
-
۱۴۰۴-۰۵-۰۵ ۱۷:۳۲ [سرپوش]
فناوری اطلاعات و ارتباطات
هشدار سم آلتمن درباره اعتماد بیش از حد به «ChatGPT» | شاید مکالمه با هوش مصنوعی از دادگاه سر درآورد!
سم آلتمن، مدیرعامل شرکت «OpenAI»، به کاربران هشدار داده که استفاده از چتبات «ChatGPT» بهعنوان رواندرمانگر یا مشاور تصمیمگیری میتواند پیامدهای قانونی جدی داشته باشد. او در دو مصاحبهی اخیر خود نگرانیهایی را دربارهی استفاده بیش از حد از این ابزار هوش مصنوعی برای مسائل شخصی ابراز کرده است.
-
۱۴۰۴-۰۵-۰۵ ۱۲:۳۵ [خبرآنلاین]
هشدار درباره اعتماد بیش از حد به «ChatGPT» / شاید مکالمه با هوش مصنوعی از دادگاه سر درآورد!
سم آلتمن، مدیرعامل شرکت «OpenAI»، به کاربران هشدار داده که استفاده از چتبات «ChatGPT» بهعنوان رواندرمانگر یا مشاور تصمیمگیری میتواند پیامدهای قانونی جدی داشته باشد. او در دو مصاحبهی اخیر خود نگرانیهایی را دربارهی استفاده بیش از حد از این ابزار هوش مصنوعی برای مسائل شخصی ابراز کرده است.
-
۱۴۰۴-۰۵-۰۶ ۱۴:۴۸ [ایلنا]
هشدار درباره اعتماد بیش از حد به «ChatGPT» / شاید مکالمه با هوش مصنوعی از دادگاه سر درآورد!
سم آلتمن، مدیرعامل شرکت «OpenAI»، به کاربران هشدار داده که استفاده از چتبات «ChatGPT» بهعنوان رواندرمانگر یا مشاور تصمیمگیری میتواند پیامدهای قانونی جدی داشته باشد. او در دو مصاحبهی اخیر خود نگرانیهایی را دربارهی استفاده بیش از حد از این ابزار هوش مصنوعی برای مسائل شخصی ابراز کرده است.