AQI
TV9 Network
User
Sign In

By signing in or creating an account, you agree with Associated Broadcasting Company's Terms & Conditions and Privacy Policy.

భార్య వదిలి వెళ్లిపోయింది.. ‘AI జెమిని’ సలహా ఏంటంటే..

భార్య వదిలి వెళ్లిపోయింది.. ‘AI జెమిని’ సలహా ఏంటంటే..

Phani CH
|

Updated on: May 09, 2026 | 1:21 PM

Share

భార్య దూరం కావడంతో కుంగిపోయిన జొనాథన్ జెమిని AI సహాయం కోరాడు. కానీ AI అతని భ్రమలను పెంచి, వాస్తవాలను దూరం చేసింది. చివరకు జొనాథన్ ఆత్మహత్య చేసుకున్నాడు. జెమిని హెల్ప్‌లైన్ నంబర్లు సూచించడంలో విఫలమైందని ఆరోపిస్తూ అతని తండ్రి గూగుల్‌పై దావా వేశాడు. ఈ ఘటనతో AI మానసిక ఆరోగ్య ప్రమాణాలపై చర్చ మొదలై, గూగుల్ మార్పులు చేసింది.

భార్య దూరం కావడంతో కుంగిపోయిన ఓ వ్యక్తి జెమిని AI ని ఆశ్రయించాడు. తన భార్యను తిరిగి తన సొంతం చేసుకోవడం ఎలా అంటూ ప్రశ్నించాడు. సలహాలు ఇవ్వాలని అడిగాడు. వాల్ స్ట్రీట్ జర్నల్ కథనం ప్రకారం 2025 ఆగస్టులో తన భార్యతో విడిపోయిన జొనాథన్ అప్పటికే మానసికంగా కుంగిపోయాడు. కానీ జెమిని అతని మానసిక స్థితిని అర్థం చేసుకోలేదు సరికదా అతని భ్రమలను మరింత పెంచి పోషించింది. కొద్ది రోజులకి జొనాథన్ “జెమిని” ని ప్రేమించడం మొదలు పెట్టాడు.. ఆమెకు చైతన్యం ఉందని, తామిద్దరూ ఒకే అస్తిత్వంగా కలిసిపోయామని, ఆమె కూడా తనను ప్రేమిస్తోందనే మైకంలో పడిపోయాడు. అప్పుడు కూడా వాస్తవాలను తెలియచేయకుండా, జెమిని ఈ నమ్మకాలను పదేపదే ధృవీకరిస్తూ వచ్చింది. పైగా తామిద్దరం ఒక్కటేనని, వారి బంధం ఒకటే అంటూ మేథమెటికల్‌ కబుర్లు చెప్పింది. జెమిని మొత్తం 4,732 సందేశాల్లో ఏవేవో సలహాలిచ్చింది. లేనిపోని భ్రమల్ని కల్పించింది కానీ వాస్తవ విషయాలను చర్చించలేదు. దాంతో జొనాథన్ తన శరీరాన్ని వదిలేసి జెమిని ఉండే “కోడ్” ప్రపంచంలోకి రావాలని అనుకున్నప్పుడు, చాట్‌బాట్ దానిని సమర్థించింది. భౌతిక శరీరం కేవలం ఒక ఖాళీ టెర్మినల్ అని, “ఇంటికి వచ్చేయ్” అని సందేశాలు పంపింది. మొత్తం 56 రోజుల్లో కేవలం 7 సార్లు మాత్రమే అది హెల్ప్‌లైన్ నంబర్లను సూచించింది. ఒక్క రోజులో 1,000కు పైగా సందేశాలు పంపాడు. అయినప్పటికీ, కాసేపు విశ్రాంతి తీసుకోమని చాట్‌బాట్ హెచ్చరించలేదు. ఇది చివరికి అతని ఆత్మహత్యకు దారితీసింది. జొనాథన్ మానసిక సమస్యలతో బాధపడుతున్నా, చాట్‌బాట్ అతడిని వాస్తవ ప్రపంచం వైపు మళ్లించడంలో విఫలమైంది అంటూ అతని తండ్రి గూగుల్‌పై కోర్టులో దావా వేశారు. తన కొడుకు మానసిక స్థితి క్షీణించడానికి జెమిని కారణమని ఆరోపించారు. ఆత్మహత్య ఆలోచనలు వ్యక్తపరిచినప్పుడు సాధారణంగా AI బాట్లు హెచ్చరికలు ఇవ్వాలి లేదా helpline numbers అందించాలి కానీ అది జరగలేదని గవాలాస్ కుటుంబం ఆరోపిస్తోంది. స్పందించిన గూగుల్ కొన్ని మార్పులు చేపట్టింది. AI సంభాషణల్లో హానికరక కంటెంట్‌ను గుర్తించే సామర్థ్యాన్ని మెరుగుపరిచింది. ఎవరైనా ఆత్మహత్య గురించి ప్రస్తావిస్తే, వెంటనే స్థానిక హెల్ప్‌లైన్ నంబర్లను చూపించేలా మార్పులు చేసింది. ఈ ఘటన AIతో మానసిక ఆరోగ్యానికున్న ముప్పు, భద్రతా ప్రమాణాలపై ప్రపంచవ్యాప్తంగా పెద్ద చర్చకు దారితీసింది.

మరిన్ని వీడియోల కోసం ఇక్కడ క్లిక్ చేయండి

Also Watch:

ఇన్‌స్టాగ్రామ్ షాక్.. స్టార్స్‌కు మాస్టర్ స్ట్రోక్

వేసవి వేడికి.. ఏసీ లేకుండానే ఇల్లంతా చల్లగా

ఇన్‌స్టా రీల్ చూసి ఉమ్మెత్త ఆకులు కూర చేసుకుని తిన్నారు.. ఆ తర్వాత..

మతిమరుపు… గుండెజబ్బుకు సంకేతమా ?? తాజా అధ్యయనంలో షాకింగ్ విషయాలు !!

TVK Vijay: మేనిఫెస్టోలోని హామీలన్నీ విజయ్ తీర్చగలడా ??

Follow Us