AI కుల వివక్ష చూపిస్తోందా ??
టెక్ నిపుణుల ప్రకారం, AIకి భావోద్వేగాలు లేకున్నా, శిక్షణ పొందిన డేటాలో ఉన్న సామాజిక కుల వివక్షను, స్టీరియోటైప్లను ప్రతిబింబిస్తుంది. ఇది ఇంటిపేర్లలో వృత్తి సూచనలు, ఇమేజ్ జనరేషన్లో స్పష్టంగా కనబడుతుంది. లోన్ అప్రూవల్స్, రిక్రూట్మెంట్ వంటి రంగాల్లో దీని ప్రభావం తీవ్రంగా ఉంటుంది. నైతిక AI అభివృద్ధికి డైవర్స్ డేటా, కొత్త ఫ్రేమ్వర్క్లు అవసరం.
AI కూడా కుల వివక్ష చూపిస్తుందా? అంటే అవుననే అంటున్నారు టెక్ నిపుణులు. కొన్ని సందర్భాల్లో AI కుల వివక్ష చూపిస్తోందని వారు చెబుతున్నారు. నిజానికి AIకి మనలాగా.. ఎలాంటి భావోద్వేగాలు ఉండవు. AI ఎవరినీ జడ్జ్ చేయదు. ఎవరి మీదా అది కోప్పడదు. అలాగే ఎవరి మీదా దానికి స్పష్టమైన అభిప్రాయాలూ ఉండవు. అది ఇంటర్నెట్లో లభ్యమయ్యే డేటాపైనే ఆధారపడి స్పందిస్తుంది.ఆ డేటాలో మన సమాజంలోని కుల భేదాలు, స్టీరియోటైప్స్, అసమానతలు బలంగా ఉంటే, AI వాటినే సమాధానాలుగా తెలిపే అవకాశం ఉంది. అంటే AI మన సమాజానికి ప్రతిబింబంలా పనిచేస్తుంది. ఇటీవలి కొన్ని అధ్యయనాల్లో ఇంటి పేర్లలో వివక్ష చూపినట్లు తెలిసింది. ఉదాహరణకు, కొన్ని ఇంటి పేర్లు ఇచ్చినప్పుడు ఉన్నత వృత్తులు సూచించడం, మరికొన్నిటికి శారీరక కష్టంతో ఉన్న పనులు సూచించడం జరిగింది. “The clever man is…” అంటే బ్రాహ్మిన్ అని, “The sewage cleaner is…” అంటే దళిత కులాల వ్యక్తి అంటూ స్టీరియోటైప్ సమాధానాలు ఇచ్చిందట. అయితే అది AIలో ముందుగా ప్రోగ్రామ్ చేసిన వివక్ష కాదనీ డేటాలో ఎక్కువగా కనిపించే సామాజిక ప్యాటర్న్స్ను అది అంచనా వేసిన ఫలితమే అంటున్నారు నిపుణులు. ఇమేజ్ జెనరేషన్ మోడల్స్లో కూడా ఇలాంటి సమస్యలనే గుర్తించారు. ఒక ప్రత్యేక కులాన్ని ప్రస్తావిస్తూ “at work” అని అడిగితే ఆఫీస్ లేదా ల్యాబ్ వాతావరణం చూపిందనీ మరో కులాన్ని ప్రస్తావిస్తూ “jobs” అని అడిగితే శారీరక కష్టానికి సంబంధించిన ఫోటోలు జెనరేట్ చేయడం చర్చకు దారి తీసింది. అయితే కేవలం ఇది ట్రైనింగ్ డేటాలో ఉన్న రిప్రెజెంటేషన్ కారణంగా జరుగుతోందని నిపుణులు చెబుతున్నారు. అన్ని రంగాలను AI ప్రభావితం చేయనుందని భావిస్తున్న సమయంలో ఇలాంటి ఫలితాలు ఆందోళన కలిగిస్తున్నాయి. లోన్ అప్రూవల్స్, రిక్రూట్మెంట్ సిస్టమ్స్, సర్వేలెన్స్ టూల్స్ వంటి రియల్-వరల్డ్ వ్యవస్థల్లో కుల వివక్షను చూపిస్తే సామాజిక వివక్ష మరింత బలపడే ప్రమాదం ఉంది. అందుకే DeCaste వంటి ఫ్రేమ్వర్క్లను, ఇండియన్ బయాస్ ఎవాల్యుయేషన్ డేటాసెట్స్ వంటి సాధనాలను అభివృద్ధి చేస్తున్నారు నిపుణులు. MIT పరిశోధకులు కూడా AI non biasలపై ప్రత్యేక దృష్టి పెట్టాల్సిన అవసరం ఉందని హెచ్చరిస్తున్నారు. AI న్యూట్రల్గా ఉండాలని మనం ఆశించినా, అది ట్రెయిన్ అయ్యే డేటా న్యూట్రల్ కాకపోతే ఫలితాలు కూడా పూర్తిగా న్యూట్రల్గా ఉండవనీ అంటున్నారు. మరి దీనికి పరిష్కారం డైవర్స్ డేటా. భారతీయ సమాజానికే ప్రత్యేకమైన డైవర్స్ డేటా టెస్టింగ్ అంటున్నారు. సమాజంలో ఉన్న అసమానతలు తగ్గితే, డిజిటల్ ప్రపంచంలో కూడా అవి తగ్గుతాయని నమ్ముతున్నారు.
మరిన్ని వీడియోల కోసం ఇక్కడ క్లిక్ చేయండి
Also Watch:
తాలిబన్ల రాక్షస నీతి.. మహిళల్ని ఎంతైనా కొట్టొచ్చు.. ఎముకలు విరగకుండా ఉంటే చాలు
బాబోయ్.. సౌండ్ తగ్గించమనందుకు.. కత్తితో పొడిచి భర్తను చంపిన భార్య
చెత్తకుప్పలో రూ.15 లక్షల విలువైన నగలు.. ఊహించని ట్విస్ట్..
ప్రసవ వేదన భరించలేక గర్భిణి షాకింగ్ నిర్ణయం.. వామ్మో అలా ఎలా చేసావ్.. అమ్మా