‘ది చిల్లింగ్ ఎఫెక్ట్’: ‘న్యూడిఫై’ యాప్లు మరియు AI డీప్ఫేక్ల భయం భారతీయ మహిళలను ఇంటర్నెట్ నుండి ఎలా దూరం చేస్తోంది | ప్రపంచ అభివృద్ధి

జిaatha Sarvaiya సోషల్ మీడియాలో పోస్ట్ చేయాలనుకుంటున్నారు మరియు ఆమె పనిని ఆన్లైన్లో భాగస్వామ్యం చేయాలనుకుంటున్నారు. 20 ఏళ్ల ప్రారంభంలో భారతీయ న్యాయశాస్త్ర గ్రాడ్యుయేట్, ఆమె తన కెరీర్లో ప్రారంభ దశలో ఉంది మరియు పబ్లిక్ ప్రొఫైల్ను రూపొందించడానికి ప్రయత్నిస్తోంది. సమస్య ఏమిటంటే, AI-శక్తితో కూడిన డీప్ఫేక్లు పెరుగుతున్నందున, ఆమె పోస్ట్ చేసే చిత్రాలు ఉల్లంఘించే లేదా వింతైనవిగా వక్రీకరించబడవని ఎటువంటి హామీ లేదు.
“సరే, బహుశా ఇది సురక్షితం కాకపోవచ్చు. బహుశా ప్రజలు మా చిత్రాలను తీయవచ్చు మరియు వారితో పనులు చేయవచ్చు,” అని ముంబైలో నివసించే సర్వయ్య చెప్పారు.
మైసూర్లోని లింగ హక్కులు మరియు డిజిటల్ పాలసీపై పరిశోధకురాలు రోహిణి లక్షణే మాట్లాడుతూ, “చిల్లింగ్ ఎఫెక్ట్ నిజం,” ఆమె తన ఫోటోలను ఆన్లైన్లో పోస్ట్ చేయడాన్ని కూడా నివారిస్తుంది. “అవి చాలా సులభంగా దుర్వినియోగం చేయబడతాయనే వాస్తవం నన్ను మరింత జాగ్రత్తగా చేస్తుంది.”
ఇటీవలి సంవత్సరాలలో, AI సాధనాల కోసం భారతదేశం అత్యంత ముఖ్యమైన పరీక్షా స్థలాలలో ఒకటిగా మారింది. ఇది OpenAI కోసం ప్రపంచంలో రెండవ అతిపెద్ద మార్కెట్సాంకేతికతతో వృత్తులలో విస్తృతంగా స్వీకరించబడింది.
కానీ ఎ సోమవారం విడుదల చేసిన నివేదిక ఆన్లైన్ దుర్వినియోగ బాధితుల కోసం దేశవ్యాప్తంగా హెల్ప్లైన్ను నడుపుతున్న స్వచ్ఛంద సంస్థ రతీ ఫౌండేషన్ సేకరించిన డేటా ఆధారంగా, AI యొక్క పెరుగుతున్న స్వీకరణ మహిళలను వేధించడానికి శక్తివంతమైన కొత్త మార్గాన్ని సృష్టించిందని చూపిస్తుంది.
“గత మూడేళ్ళలో AI- రూపొందించిన కంటెంట్లో ఎక్కువ భాగం మహిళలు మరియు లింగ మైనారిటీలను లక్ష్యంగా చేసుకోవడానికి ఉపయోగించబడుతుందని స్పష్టమైంది” అని రాతి ఫౌండేషన్ మరియు రచయితలు రూపొందించిన నివేదిక పేర్కొంది. టాటిల్భారతదేశం యొక్క సోషల్ మీడియాలో తప్పుడు సమాచారాన్ని తగ్గించడానికి పనిచేసే సంస్థ.
ప్రత్యేకించి, మహిళల డిజిటల్గా మానిప్యులేట్ చేయబడిన చిత్రాలు లేదా వీడియోలను రూపొందించడానికి AI సాధనాలు ఎక్కువగా ఉపయోగించబడుతున్నాయని నివేదిక కనుగొంది – యుఎస్లో సాంస్కృతికంగా సముచితంగా ఉండే న్యూడ్లు లేదా చిత్రాలు, కానీ బహిరంగంగా ఆప్యాయత ప్రదర్శించడం వంటి అనేక భారతీయ సంఘాలలో కళంకం కలిగిస్తున్నాయి.
ఇప్పుడు హెల్ప్లైన్కి నివేదించబడిన వందలాది కేసులలో 10% ఈ చిత్రాలను కలిగి ఉన్నాయని నివేదిక కనుగొంది. “AI వాస్తవికంగా కనిపించే కంటెంట్ను సృష్టించడం చాలా సులభం చేస్తుంది,” అని ఇది చెప్పింది.
AI సాధనాల ద్వారా భారతీయ మహిళలు తమ చిత్రాలను మానిప్యులేట్ చేసిన ప్రజా గోళంలో అధిక ప్రొఫైల్ కేసులు ఉన్నాయి: ఉదాహరణకు, బాలీవుడ్ సింగర్ ఆశా భోంస్లేదీని పోలిక మరియు వాయిస్ AIని ఉపయోగించి క్లోన్ చేయబడ్డాయి మరియు YouTubeలో ప్రసారం చేయబడ్డాయి. రాజకీయ మరియు పోలీసు అవినీతిపై దర్యాప్తు చేయడంలో పేరుగాంచిన జర్నలిస్ట్ రానా అయ్యూబ్ ఒక టార్గెట్ అయ్యాడు డాక్సింగ్ గత సంవత్సరం ప్రచారం దారితీసింది డీప్ఫేక్ లైంగిక చిత్రాలు ఆమె సోషల్ మీడియాలో కనిపించింది.
ఇవి సమాజవ్యాప్త సంభాషణకు దారితీశాయి, ఇందులో భోంస్లే వంటి కొందరు వ్యక్తులు ఉన్నారు వారి వాయిస్ లేదా ఇమేజ్పై చట్టపరమైన హక్కుల కోసం విజయవంతంగా పోరాడారు. అయితే, సర్వయ్య వంటి, ఆన్లైన్కి వెళ్లడంపై ఎక్కువ అనిశ్చితి చెందుతున్న సాధారణ మహిళలపై ఇటువంటి కేసులు చూపే ప్రభావం తక్కువగా చర్చించబడింది.
“ఆన్లైన్లో వేధింపులను ఎదుర్కోవడం యొక్క పర్యవసానంగా మిమ్మల్ని మీరు నిశ్శబ్దం చేసుకోవడం లేదా ఆన్లైన్లో తక్కువ యాక్టివ్గా మారడం” అని టాటిల్ సహ వ్యవస్థాపకురాలు తరుణిమ ప్రభాకర్ చెప్పారు. డిజిటల్ దుర్వినియోగం సమాజాన్ని ఎలా ప్రభావితం చేసిందో అర్థం చేసుకోవడానికి ఆమె సంస్థ భారతదేశం అంతటా రెండేళ్లపాటు ఫోకస్ గ్రూపులను ఉపయోగించింది.
“మేము గుర్తించిన భావోద్వేగం అలసట,” ఆమె చెప్పింది. “మరియు ఆ అలసట యొక్క పర్యవసానమేమిటంటే, మీరు ఈ ఆన్లైన్ స్పేస్ల నుండి పూర్తిగా వైదొలగడం కూడా.”
గత కొన్ని సంవత్సరాలుగా, సర్వయ్య మరియు ఆమె స్నేహితులు అయ్యూబ్ల వంటి డీప్ఫేక్ ఆన్లైన్ దుర్వినియోగానికి సంబంధించిన హై ప్రొఫైల్ కేసులను అనుసరిస్తున్నారు. బాలీవుడ్ నటి రష్మిక మందన్న. “ఇది ఇక్కడ మహిళలకు కొద్దిగా భయానకంగా ఉంది,” ఆమె చెప్పింది.
ఇప్పుడు, సర్వయ్య సోషల్ మీడియాలో ఏదైనా పోస్ట్ చేయడానికి సంకోచించరు మరియు ఆమె ఇన్స్టాగ్రామ్ను ప్రైవేట్గా మార్చారు. ఇది కూడా, తనను రక్షించడానికి సరిపోదని ఆమె ఆందోళన చెందుతోంది: మెట్రో వంటి బహిరంగ ప్రదేశాల్లో కొన్నిసార్లు మహిళలు ఫోటోలు తీస్తారు. చిత్రాలు తర్వాత ఆన్లైన్లో కనిపిస్తాయి.
“ఇది మీరు అనుకున్నంత సాధారణం కాదు, కానీ మీ అదృష్టం మీకు తెలియదు, సరియైనదా?” ఆమె చెప్పింది. “స్నేహితుల స్నేహితులు బ్లాక్ మెయిల్ చేయబడుతున్నారు – వాచ్యంగా, ఇంటర్నెట్ నుండి.”
ఇప్పుడు జరిగే ఈవెంట్లలో, తాను స్పీకర్గా ఉన్న ఈవెంట్లలో కూడా ఫోటో తీయవద్దని తాను తరచుగా అడుగుతానని లక్షానే చెప్పింది. అయితే జాగ్రత్తలు తీసుకున్నప్పటికీ, ఏదో ఒక రోజు తన డీప్ఫేక్ వీడియో లేదా ఇమేజ్ బయటపడే అవకాశం కోసం ఆమె సిద్ధంగా ఉంది. యాప్లలో, ఆమె తన ప్రొఫైల్ చిత్రాన్ని ఫోటోగా కాకుండా తనకు తానే ఉదాహరణగా మార్చుకుంది.
“చిత్రాలను దుర్వినియోగం చేస్తారనే భయం ఉంది, ముఖ్యంగా పబ్లిక్ ఉనికిని కలిగి ఉన్న, ఆన్లైన్లో వాయిస్ కలిగి ఉన్న, రాజకీయ వైఖరిని తీసుకునే మహిళలకు” అని ఆమె చెప్పింది.
వార్తాలేఖ ప్రమోషన్ తర్వాత
AI సాధనాలు ఎలా ఉంటాయో రాతి నివేదిక వివరిస్తుంది “న్యూడిఫికేషన్” లేదా న్యూడిఫై యాప్లు – ఇది చిత్రాల నుండి బట్టలు తీసివేయగలదు – దుర్వినియోగ కేసులను ఒకప్పుడు చాలా సాధారణమైనదిగా చూసింది. ఇది వివరించిన ఒక సందర్భంలో, ఒక మహిళ రుణ దరఖాస్తుతో సమర్పించిన ఫోటో తన నుండి డబ్బును దోపిడీ చేయడానికి ఉపయోగించబడటంతో హెల్ప్లైన్ను సంప్రదించింది.
“ఆమె చెల్లింపులను కొనసాగించడానికి నిరాకరించినప్పుడు, ఆమె అప్లోడ్ చేసిన ఫోటో న్యూడిఫై యాప్ని ఉపయోగించి డిజిటల్గా మార్చబడింది మరియు అశ్లీల చిత్రంపై ఉంచబడింది” అని నివేదిక పేర్కొంది.
ఆ ఫోటో, ఆమె ఫోన్ నంబర్తో జతచేయబడి, వాట్సాప్లో ప్రసారం చేయబడింది, ఫలితంగా “తెలియని వ్యక్తుల నుండి లైంగిక అసభ్యకరమైన కాల్లు మరియు సందేశాల వర్షం” ఏర్పడింది. ఆ మహిళ రతీ యొక్క హెల్ప్లైన్కి మాట్లాడుతూ, తాను “సిగ్గుగా మరియు సామాజికంగా గుర్తించబడ్డానని, ‘ఏదో మురికిలో’ పాలుపంచుకున్నట్లు” భావించానని చెప్పింది.
భారతదేశంలో, ప్రపంచంలోని చాలా ప్రాంతాలలో, డీప్ఫేక్లు చట్టబద్ధమైన గ్రే జోన్లో పనిచేస్తాయి – నిర్దిష్ట చట్టాలు ఏవీ వాటిని గుర్తించవు హాని యొక్క విభిన్న రూపాలుగా, రతీ యొక్క నివేదిక ఆన్లైన్ వేధింపులు మరియు బెదిరింపులకు వర్తించే అనేక భారతీయ చట్టాలను వివరిస్తుంది, దీని కింద మహిళలు AI డీప్ఫేక్లను నివేదించవచ్చు.
“కానీ ఆ ప్రక్రియ చాలా పొడవుగా ఉంది,” అని వాదించిన సర్వయ్య, AI డీప్ఫేక్లను ఎదుర్కోవటానికి భారతదేశ న్యాయ వ్యవస్థ సరిగా లేదని వాదించారు. “మరియు అది చేసిన దానికి న్యాయం చేయడానికి ఆ స్థితికి చేరుకోవడానికి చాలా రెడ్ టేప్ ఉంది.”
తరచుగా YouTube, Meta, X, Instagram మరియు WhatsApp – ఈ చిత్రాలను భాగస్వామ్యం చేసిన ప్లాట్ఫారమ్లపై బాధ్యత కొంత భాగం ఉంటుంది. భారతీయ చట్ట అమలు ఏజెన్సీలు ఈ కంపెనీలను దుర్వినియోగ కంటెంట్ను తొలగించే ప్రక్రియను “అపారదర్శక, వనరు-ఇంటెన్సివ్, అస్థిరమైన మరియు తరచుగా పనికిరానివి”గా వివరిస్తాయి. ఈక్వాలిటీ నౌ మంగళవారం విడుదల చేసిన నివేదికఇది మహిళల హక్కుల కోసం ప్రచారం చేస్తుంది.
కాగా ఆపిల్ మరియు మెటా ఇటీవల చర్యలు చేపట్టింది nudify యాప్ల వ్యాప్తిని పరిమితం చేయడానికి, ఆన్లైన్ దుర్వినియోగానికి ఈ ప్లాట్ఫారమ్లు సరిపోని విధంగా స్పందించిన అనేక సందర్భాలను Rati యొక్క నివేదిక పేర్కొంది.
దోపిడి కేసులో వాట్సాప్ చివరికి చర్య తీసుకుంది, అయితే దాని ప్రతిస్పందన “సరిపోదు” అని రాతి నివేదించారు, ఎందుకంటే నగ్న చిత్రాలు ఇప్పటికే ఇంటర్నెట్లో ఉన్నాయి. మరొక సందర్భంలో, ఒక భారతీయుడు Instagram సృష్టికర్త వారి నగ్న వీడియోలను పోస్ట్ చేస్తూ ఒక ట్రోల్ ద్వారా వేధించబడ్డాడు, Instagram “నిరంతర ప్రయత్నం” తర్వాత మాత్రమే “ఆలస్యం మరియు సరిపోని” ప్రతిస్పందనతో ప్రతిస్పందించింది.
ఈ ప్లాట్ఫారమ్లకు వేధింపులను నివేదించినప్పుడు బాధితులు తరచుగా విస్మరించబడ్డారు, ఇది హెల్ప్లైన్ను సంప్రదించడానికి దారితీసిందని నివేదిక పేర్కొంది. ఇంకా, ఒక ప్లాట్ఫారమ్ దుర్వినియోగ కంటెంట్ను వ్యాప్తి చేసే ఖాతాను తీసివేసినప్పటికీ, ఆ కంటెంట్ తరచుగా మరెక్కడా మళ్లీ కనిపిస్తుంది, రతీ “కంటెంట్ రెసిడివిజం” అని పిలుస్తుంది.
“AI- సృష్టించిన దుర్వినియోగం యొక్క స్థిరమైన లక్షణాలలో ఒకటి గుణించే ధోరణి. ఇది సులభంగా సృష్టించబడుతుంది, విస్తృతంగా భాగస్వామ్యం చేయబడుతుంది మరియు పదేపదే పునరుజ్జీవింపబడుతుంది,” అని రతీ చెప్పారు. దీనిని సంబోధించడానికి “ప్లాట్ఫారమ్ల నుండి చాలా ఎక్కువ పారదర్శకత మరియు డేటా యాక్సెస్ అవసరం”.
Source link



