-
۱۴۰۴-۰۵-۲۰ ۱۴:۴۹ [انتخاب]
توصیه غذایی خطرناک ChatGPT مرد ۶۰ ساله را راهی بیمارستان کرد!
یک مرد ۶۰ ساله پس از عمل به توصیه ChatGPT برای جایگزینکردن نمک طعام، دچار یک مسمومیت نادر و خطرناک به نام «برومیسم» شد و با علائم شدید روانپریشی مانند توهم و پارانویا در بخش اورژانس بستری گردید.
-
۱۴۰۴-۰۵-۱۹ ۱۸:۴۵ [همشهری آنلاین]
رژیم غذایی ChatGPT این مرد را روانه بیمارستان کرد
مردی که برای تغییر رژیم غذایی روزانه خود با ChatGPT مشورت کرده بود با علائم شدید مسمومیت در بخش اورژانس بستری شد.
-
۱۴۰۴-۰۵-۱۹ ۱۲:۱۸ [برنا]
مردی که با رژیم غذایی چتجیپیتی دچار مسمومیت شد/ ثبت نخستین مسمومیت ناشی از راهنمایی تغذیهای هوش مصنوعی در جهان
برنا - گروه علمی و فناوری: یک مرد ۶۰ ساله پس از مشورت گرفتن از هوش مصنوعی چت جیپیتی برای تغییر رژیم غذایی خود دچار مسمومیت شدید و علائم روانپریشی شد. برنا - گروه علمی و فناوری: یک مرد ۶۰ ساله پس از مشورت گرفتن از هوش مصنوعی چت جیپیتی برای تغییر رژیم غذایی خود دچار مسمومیت شدید و علائم روانپریشی شد.
-
۱۴۰۴-۰۵-۱۹ ۲۲:۱۰ [فرارو]
توصیه عجیب ChatGPT و مسمومیت کاربر ۶۰ ساله
یک مرد ۶۰ ساله پس از عمل به توصیه ChatGPT برای جایگزینکردن نمک طعام، دچار یک مسمومیت نادر و خطرناک به نام «برومیسم» شد و با علائم شدید روانپریشی مانند توهم و پارانویا در بخش اورژانس بستری گردید.
-
۱۴۰۴-۰۵-۲۰ ۱۶:۲۹
[دانشجو]
توصیه غذایی خطرناک ChatGPT مرد ۶۰ ساله را راهی بیمارستان کرد
یک مرد ۶۰ ساله پس از مطالعه درمورد ضررهای کلرید در نمک طعام (سدیم کلرید) تصمیم گرفت این ماده را از رژیم غذایی خود حذف کند.
-
۱۴۰۴-۰۵-۱۹ ۲۱:۳۸ [برترینها]
توصیهChatGPT مرد ۶۰ ساله را راهی بیمارستان کرد!
توصیهChatGPT مرد ۶۰ ساله را راهی بیمارستان کرد!
یک مرد ۶۰ ساله پس از مطالعه درمورد ضررهای کلرید در نمک طعام (سدیم کلرید) تصمیم گرفت این ماده را از رژیم غذایی خود حذف کند. او برای یافتن یک جایگزین مناسب، با ChatGPT مشورت کرد. این چتبات به او پیشنهاد داد که میتواند کلرید را با برومید جایگزین کند. در نتیجه، این مرد به مدت سه ماه، تمام نمک طعام خود را با سدیم برومید که به صورت آنلاین خریداری کرده بود، جایگزین کرد.
-
۱۴۰۴-۰۵-۲۳ ۱۱:۵۶ [گجت نیوز]
استفاده از هوش مصنوعی به جای دکتر، این مرد را به لبه پرتگاه مرگ برد
-
۱۴۰۴-۰۵-۲۱ ۱۰:۳۹ [بهار]
توصیههای پزشکی گمراهکننده هوش مصنوعی
-
۱۴۰۴-۰۵-۱۸ ۱۹:۰۹ [همشهری آنلاین]
اشتباه پزشکی تردیدها درباره عملکرد هوش مصنوعی را افزایش داده
چرا هوش مصنوعی قابل اعتماد نیست؟
در تحقیقی که نتایج توسط مجلات کالج پزشکان آمریکا منتشر شد، پرونده مردی ۶۰ ساله که پس از درخواست مشاوره رژیم غذایی از چت جی پی تی، دچار یک اختلال روانی غیرمعمول شده بود مورد بررسی قرار گرفت.
-
۱۴۰۴-۰۵-۱۸ ۱۳:۰۶ [ایتنا]
هشدار! مشاوره رژیم غذایی با ChatGPT منجر به مسمومیت شدید شد
مردی ۶۰ ساله پس از پیروی از رژیم غذایی پیشنهادی ChatGPT، دچار مسمومیت با بروماید و علائم شدید روانی شد! این پرونده هشدار جدی برای کسانی است که بدون مشورت پزشک، به توصیههای هوش مصنوعی اعتماد میکنند. آیا ChatGPT میتواند برای سلامت شما خطرناک باشد؟