World

‘ది చిల్లింగ్ ఎఫెక్ట్’: ‘న్యూడిఫై’ యాప్‌లు మరియు AI డీప్‌ఫేక్‌ల భయం భారతీయ మహిళలను ఇంటర్నెట్ నుండి ఎలా దూరం చేస్తోంది | ప్రపంచ అభివృద్ధి

జిaatha Sarvaiya సోషల్ మీడియాలో పోస్ట్ చేయాలనుకుంటున్నారు మరియు ఆమె పనిని ఆన్‌లైన్‌లో భాగస్వామ్యం చేయాలనుకుంటున్నారు. 20 ఏళ్ల ప్రారంభంలో భారతీయ న్యాయశాస్త్ర గ్రాడ్యుయేట్, ఆమె తన కెరీర్‌లో ప్రారంభ దశలో ఉంది మరియు పబ్లిక్ ప్రొఫైల్‌ను రూపొందించడానికి ప్రయత్నిస్తోంది. సమస్య ఏమిటంటే, AI-శక్తితో కూడిన డీప్‌ఫేక్‌లు పెరుగుతున్నందున, ఆమె పోస్ట్ చేసే చిత్రాలు ఉల్లంఘించే లేదా వింతైనవిగా వక్రీకరించబడవని ఎటువంటి హామీ లేదు.

“సరే, బహుశా ఇది సురక్షితం కాకపోవచ్చు. బహుశా ప్రజలు మా చిత్రాలను తీయవచ్చు మరియు వారితో పనులు చేయవచ్చు,” అని ముంబైలో నివసించే సర్వయ్య చెప్పారు.

మైసూర్‌లోని లింగ హక్కులు మరియు డిజిటల్ పాలసీపై పరిశోధకురాలు రోహిణి లక్షణే మాట్లాడుతూ, “చిల్లింగ్ ఎఫెక్ట్ నిజం,” ఆమె తన ఫోటోలను ఆన్‌లైన్‌లో పోస్ట్ చేయడాన్ని కూడా నివారిస్తుంది. “అవి చాలా సులభంగా దుర్వినియోగం చేయబడతాయనే వాస్తవం నన్ను మరింత జాగ్రత్తగా చేస్తుంది.”

ఇటీవలి సంవత్సరాలలో, AI సాధనాల కోసం భారతదేశం అత్యంత ముఖ్యమైన పరీక్షా స్థలాలలో ఒకటిగా మారింది. ఇది OpenAI కోసం ప్రపంచంలో రెండవ అతిపెద్ద మార్కెట్సాంకేతికతతో వృత్తులలో విస్తృతంగా స్వీకరించబడింది.

కానీ ఎ సోమవారం విడుదల చేసిన నివేదిక ఆన్‌లైన్ దుర్వినియోగ బాధితుల కోసం దేశవ్యాప్తంగా హెల్ప్‌లైన్‌ను నడుపుతున్న స్వచ్ఛంద సంస్థ రతీ ఫౌండేషన్ సేకరించిన డేటా ఆధారంగా, AI యొక్క పెరుగుతున్న స్వీకరణ మహిళలను వేధించడానికి శక్తివంతమైన కొత్త మార్గాన్ని సృష్టించిందని చూపిస్తుంది.

“గత మూడేళ్ళలో AI- రూపొందించిన కంటెంట్‌లో ఎక్కువ భాగం మహిళలు మరియు లింగ మైనారిటీలను లక్ష్యంగా చేసుకోవడానికి ఉపయోగించబడుతుందని స్పష్టమైంది” అని రాతి ఫౌండేషన్ మరియు రచయితలు రూపొందించిన నివేదిక పేర్కొంది. టాటిల్భారతదేశం యొక్క సోషల్ మీడియాలో తప్పుడు సమాచారాన్ని తగ్గించడానికి పనిచేసే సంస్థ.

ప్రత్యేకించి, మహిళల డిజిటల్‌గా మానిప్యులేట్ చేయబడిన చిత్రాలు లేదా వీడియోలను రూపొందించడానికి AI సాధనాలు ఎక్కువగా ఉపయోగించబడుతున్నాయని నివేదిక కనుగొంది – యుఎస్‌లో సాంస్కృతికంగా సముచితంగా ఉండే న్యూడ్‌లు లేదా చిత్రాలు, కానీ బహిరంగంగా ఆప్యాయత ప్రదర్శించడం వంటి అనేక భారతీయ సంఘాలలో కళంకం కలిగిస్తున్నాయి.

సోషల్ మీడియాలో డీప్‌ఫేక్ మానిప్యులేషన్‌తో ప్రభావితమైన భారతీయ గాయని ఆశా భోంస్లే, ఎడమ మరియు జర్నలిస్ట్ రానా అయ్యూబ్. ఫోటో: గెట్టి

ఇప్పుడు హెల్ప్‌లైన్‌కి నివేదించబడిన వందలాది కేసులలో 10% ఈ చిత్రాలను కలిగి ఉన్నాయని నివేదిక కనుగొంది. “AI వాస్తవికంగా కనిపించే కంటెంట్‌ను సృష్టించడం చాలా సులభం చేస్తుంది,” అని ఇది చెప్పింది.

AI సాధనాల ద్వారా భారతీయ మహిళలు తమ చిత్రాలను మానిప్యులేట్ చేసిన ప్రజా గోళంలో అధిక ప్రొఫైల్ కేసులు ఉన్నాయి: ఉదాహరణకు, బాలీవుడ్ సింగర్ ఆశా భోంస్లేదీని పోలిక మరియు వాయిస్ AIని ఉపయోగించి క్లోన్ చేయబడ్డాయి మరియు YouTubeలో ప్రసారం చేయబడ్డాయి. రాజకీయ మరియు పోలీసు అవినీతిపై దర్యాప్తు చేయడంలో పేరుగాంచిన జర్నలిస్ట్ రానా అయ్యూబ్ ఒక టార్గెట్ అయ్యాడు డాక్సింగ్ గత సంవత్సరం ప్రచారం దారితీసింది డీప్‌ఫేక్ లైంగిక చిత్రాలు ఆమె సోషల్ మీడియాలో కనిపించింది.

ఇవి సమాజవ్యాప్త సంభాషణకు దారితీశాయి, ఇందులో భోంస్లే వంటి కొందరు వ్యక్తులు ఉన్నారు వారి వాయిస్ లేదా ఇమేజ్‌పై చట్టపరమైన హక్కుల కోసం విజయవంతంగా పోరాడారు. అయితే, సర్వయ్య వంటి, ఆన్‌లైన్‌కి వెళ్లడంపై ఎక్కువ అనిశ్చితి చెందుతున్న సాధారణ మహిళలపై ఇటువంటి కేసులు చూపే ప్రభావం తక్కువగా చర్చించబడింది.

“ఆన్‌లైన్‌లో వేధింపులను ఎదుర్కోవడం యొక్క పర్యవసానంగా మిమ్మల్ని మీరు నిశ్శబ్దం చేసుకోవడం లేదా ఆన్‌లైన్‌లో తక్కువ యాక్టివ్‌గా మారడం” అని టాటిల్ సహ వ్యవస్థాపకురాలు తరుణిమ ప్రభాకర్ చెప్పారు. డిజిటల్ దుర్వినియోగం సమాజాన్ని ఎలా ప్రభావితం చేసిందో అర్థం చేసుకోవడానికి ఆమె సంస్థ భారతదేశం అంతటా రెండేళ్లపాటు ఫోకస్ గ్రూపులను ఉపయోగించింది.

“మేము గుర్తించిన భావోద్వేగం అలసట,” ఆమె చెప్పింది. “మరియు ఆ అలసట యొక్క పర్యవసానమేమిటంటే, మీరు ఈ ఆన్‌లైన్ స్పేస్‌ల నుండి పూర్తిగా వైదొలగడం కూడా.”

గత కొన్ని సంవత్సరాలుగా, సర్వయ్య మరియు ఆమె స్నేహితులు అయ్యూబ్‌ల వంటి డీప్‌ఫేక్ ఆన్‌లైన్ దుర్వినియోగానికి సంబంధించిన హై ప్రొఫైల్ కేసులను అనుసరిస్తున్నారు. బాలీవుడ్ నటి రష్మిక మందన్న. “ఇది ఇక్కడ మహిళలకు కొద్దిగా భయానకంగా ఉంది,” ఆమె చెప్పింది.

ఇప్పుడు, సర్వయ్య సోషల్ మీడియాలో ఏదైనా పోస్ట్ చేయడానికి సంకోచించరు మరియు ఆమె ఇన్‌స్టాగ్రామ్‌ను ప్రైవేట్‌గా మార్చారు. ఇది కూడా, తనను రక్షించడానికి సరిపోదని ఆమె ఆందోళన చెందుతోంది: మెట్రో వంటి బహిరంగ ప్రదేశాల్లో కొన్నిసార్లు మహిళలు ఫోటోలు తీస్తారు. చిత్రాలు తర్వాత ఆన్‌లైన్‌లో కనిపిస్తాయి.

“ఇది మీరు అనుకున్నంత సాధారణం కాదు, కానీ మీ అదృష్టం మీకు తెలియదు, సరియైనదా?” ఆమె చెప్పింది. “స్నేహితుల స్నేహితులు బ్లాక్ మెయిల్ చేయబడుతున్నారు – వాచ్యంగా, ఇంటర్నెట్ నుండి.”

ఇప్పుడు జరిగే ఈవెంట్‌లలో, తాను స్పీకర్‌గా ఉన్న ఈవెంట్‌లలో కూడా ఫోటో తీయవద్దని తాను తరచుగా అడుగుతానని లక్షానే చెప్పింది. అయితే జాగ్రత్తలు తీసుకున్నప్పటికీ, ఏదో ఒక రోజు తన డీప్‌ఫేక్ వీడియో లేదా ఇమేజ్ బయటపడే అవకాశం కోసం ఆమె సిద్ధంగా ఉంది. యాప్‌లలో, ఆమె తన ప్రొఫైల్ చిత్రాన్ని ఫోటోగా కాకుండా తనకు తానే ఉదాహరణగా మార్చుకుంది.

“చిత్రాలను దుర్వినియోగం చేస్తారనే భయం ఉంది, ముఖ్యంగా పబ్లిక్ ఉనికిని కలిగి ఉన్న, ఆన్‌లైన్‌లో వాయిస్ కలిగి ఉన్న, రాజకీయ వైఖరిని తీసుకునే మహిళలకు” అని ఆమె చెప్పింది.

గత వార్తాలేఖ ప్రచారాన్ని దాటవేయండి

AI సాధనాలు ఎలా ఉంటాయో రాతి నివేదిక వివరిస్తుంది “న్యూడిఫికేషన్” లేదా న్యూడిఫై యాప్‌లు – ఇది చిత్రాల నుండి బట్టలు తీసివేయగలదు – దుర్వినియోగ కేసులను ఒకప్పుడు చాలా సాధారణమైనదిగా చూసింది. ఇది వివరించిన ఒక సందర్భంలో, ఒక మహిళ రుణ దరఖాస్తుతో సమర్పించిన ఫోటో తన నుండి డబ్బును దోపిడీ చేయడానికి ఉపయోగించబడటంతో హెల్ప్‌లైన్‌ను సంప్రదించింది.

“ఆమె చెల్లింపులను కొనసాగించడానికి నిరాకరించినప్పుడు, ఆమె అప్‌లోడ్ చేసిన ఫోటో న్యూడిఫై యాప్‌ని ఉపయోగించి డిజిటల్‌గా మార్చబడింది మరియు అశ్లీల చిత్రంపై ఉంచబడింది” అని నివేదిక పేర్కొంది.

ఆ ఫోటో, ఆమె ఫోన్ నంబర్‌తో జతచేయబడి, వాట్సాప్‌లో ప్రసారం చేయబడింది, ఫలితంగా “తెలియని వ్యక్తుల నుండి లైంగిక అసభ్యకరమైన కాల్‌లు మరియు సందేశాల వర్షం” ఏర్పడింది. ఆ మహిళ రతీ యొక్క హెల్ప్‌లైన్‌కి మాట్లాడుతూ, తాను “సిగ్గుగా మరియు సామాజికంగా గుర్తించబడ్డానని, ‘ఏదో మురికిలో’ పాలుపంచుకున్నట్లు” భావించానని చెప్పింది.

భారత జాతీయ కాంగ్రెస్ నాయకుడు రాహుల్ గాంధీ మరియు భారత ఆర్థిక మంత్రి నిర్మలా సీతారామన్ ఆర్థిక పథకాన్ని ప్రమోట్ చేస్తున్నట్లు చూపుతున్న నకిలీ వీడియో. ఫోటో: DAU సెక్రటేరియట్

భారతదేశంలో, ప్రపంచంలోని చాలా ప్రాంతాలలో, డీప్‌ఫేక్‌లు చట్టబద్ధమైన గ్రే జోన్‌లో పనిచేస్తాయి – నిర్దిష్ట చట్టాలు ఏవీ వాటిని గుర్తించవు హాని యొక్క విభిన్న రూపాలుగా, రతీ యొక్క నివేదిక ఆన్‌లైన్ వేధింపులు మరియు బెదిరింపులకు వర్తించే అనేక భారతీయ చట్టాలను వివరిస్తుంది, దీని కింద మహిళలు AI డీప్‌ఫేక్‌లను నివేదించవచ్చు.

“కానీ ఆ ప్రక్రియ చాలా పొడవుగా ఉంది,” అని వాదించిన సర్వయ్య, AI డీప్‌ఫేక్‌లను ఎదుర్కోవటానికి భారతదేశ న్యాయ వ్యవస్థ సరిగా లేదని వాదించారు. “మరియు అది చేసిన దానికి న్యాయం చేయడానికి ఆ స్థితికి చేరుకోవడానికి చాలా రెడ్ టేప్ ఉంది.”

తరచుగా YouTube, Meta, X, Instagram మరియు WhatsApp – ఈ చిత్రాలను భాగస్వామ్యం చేసిన ప్లాట్‌ఫారమ్‌లపై బాధ్యత కొంత భాగం ఉంటుంది. భారతీయ చట్ట అమలు ఏజెన్సీలు ఈ కంపెనీలను దుర్వినియోగ కంటెంట్‌ను తొలగించే ప్రక్రియను “అపారదర్శక, వనరు-ఇంటెన్సివ్, అస్థిరమైన మరియు తరచుగా పనికిరానివి”గా వివరిస్తాయి. ఈక్వాలిటీ నౌ మంగళవారం విడుదల చేసిన నివేదికఇది మహిళల హక్కుల కోసం ప్రచారం చేస్తుంది.

కాగా ఆపిల్ మరియు మెటా ఇటీవల చర్యలు చేపట్టింది nudify యాప్‌ల వ్యాప్తిని పరిమితం చేయడానికి, ఆన్‌లైన్ దుర్వినియోగానికి ఈ ప్లాట్‌ఫారమ్‌లు సరిపోని విధంగా స్పందించిన అనేక సందర్భాలను Rati యొక్క నివేదిక పేర్కొంది.

దోపిడి కేసులో వాట్సాప్ చివరికి చర్య తీసుకుంది, అయితే దాని ప్రతిస్పందన “సరిపోదు” అని రాతి నివేదించారు, ఎందుకంటే నగ్న చిత్రాలు ఇప్పటికే ఇంటర్నెట్‌లో ఉన్నాయి. మరొక సందర్భంలో, ఒక భారతీయుడు Instagram సృష్టికర్త వారి నగ్న వీడియోలను పోస్ట్ చేస్తూ ఒక ట్రోల్ ద్వారా వేధించబడ్డాడు, Instagram “నిరంతర ప్రయత్నం” తర్వాత మాత్రమే “ఆలస్యం మరియు సరిపోని” ప్రతిస్పందనతో ప్రతిస్పందించింది.

ఈ ప్లాట్‌ఫారమ్‌లకు వేధింపులను నివేదించినప్పుడు బాధితులు తరచుగా విస్మరించబడ్డారు, ఇది హెల్ప్‌లైన్‌ను సంప్రదించడానికి దారితీసిందని నివేదిక పేర్కొంది. ఇంకా, ఒక ప్లాట్‌ఫారమ్ దుర్వినియోగ కంటెంట్‌ను వ్యాప్తి చేసే ఖాతాను తీసివేసినప్పటికీ, ఆ కంటెంట్ తరచుగా మరెక్కడా మళ్లీ కనిపిస్తుంది, రతీ “కంటెంట్ రెసిడివిజం” అని పిలుస్తుంది.

“AI- సృష్టించిన దుర్వినియోగం యొక్క స్థిరమైన లక్షణాలలో ఒకటి గుణించే ధోరణి. ఇది సులభంగా సృష్టించబడుతుంది, విస్తృతంగా భాగస్వామ్యం చేయబడుతుంది మరియు పదేపదే పునరుజ్జీవింపబడుతుంది,” అని రతీ చెప్పారు. దీనిని సంబోధించడానికి “ప్లాట్‌ఫారమ్‌ల నుండి చాలా ఎక్కువ పారదర్శకత మరియు డేటా యాక్సెస్ అవసరం”.


Source link

Related Articles

స్పందించండి

మీ ఈమెయిలు చిరునామా ప్రచురించబడదు. తప్పనిసరి ఖాళీలు *‌తో గుర్తించబడ్డాయి

Back to top button