ஏ.ஐ-ன் டீப்ஃபேக் தொழில்நுட்பம் இந்தியாவில் கடந்த சில நாட்களாக பரபரப்பாக பேசப்பட்டு வருகிறது. சாமானியர்கள் முதல் பிரதமர் வரை தற்போது பேசு பொருளாகி உள்ளது. காரணம், அண்மையில் நடிகைகள் ராஷ்மிகா மந்தனா, கத்ரினா கைப் ஆகியோரின் புகைப்படங்கள் தவறாக சித்தரிக்கப்பட்டு மார்பிங் வீடியோவாக வெளிவந்தது. இது நாடு முழுவதும் அதிர்வலையை ஏற்படுத்தியது.
இந்நிலையில், ஆடியோ டீப்ஃபேக் தொழில்நுட்பமும் உலாவி வருகிறது. தேர்தல் அரசியலின் அரங்கில், இதுபோன்ற குளோனிங் ஆபத்தான முறையில் பயன்படுத்தப்பட்டு, புதிய பயனுள்ள வகையில் தவறான தகவல்களை பரப்புகிறது. எந்தவொரு அரசியல் தலைவரின் குரலையும் குளோன் செய்து, ஏற்கனவே உள்ள வீடியோ கிளிப்பில் ஆடியோவை மிகைப்படுத்தி, பகிரப்படுவதாகும்.
உதாரணமாக, மேலே உள்ள இன்ஸ்டாகிராம் வீடியோவை எடுத்துக் கொள்வோம். இது பிரதமர் நரேந்திர மோடி மற்றும் கேரள முதல்வர் பினராயி விஜயனின் குரல் வைத்து ஏ.ஐ வாய்ஸ் குளோன் செய்து உருவாக்கப்பட்டதாகும். இந்த வீடியோ போலியானவை என்றும், பொழுதுபோக்கு நோக்கங்களுக்காக மட்டுமே, உருவாக்கப்பட்டதாக அதில் வாட்டர்மார்க் உடன் தெரிவிக்கப்பட்டுள்ளது. இதே வாட்டர்மார்க் இல்லாமல் பகிரப்பட்டால், அவை மக்கள் பலரையும் முட்டாளாக்கும் வாய்ப்புள்ளது. அதை உண்மை என நம்பும் வாய்ப்பு உள்ளது. இந்நிலையில் ஆடியோ டீப்ஃபேக் எப்படி கண்டறிவது என்பது குறித்துப் பார்ப்போம்.
முதலில், AI குரல் குளோன்கள் அல்லது டீப்ஃபேக் ஆடியோக்கள் என்றால் என்ன?
AI குரல் குளோன்கள் அல்லது டீப்ஃபேக் ஆடியோக்கள் செயற்கை நுண்ணறிவு (AI) தொழில் நுட்பத்தைப் பயன்படுத்துவதைக் குறிக்கிறது. குறிப்பாக டீப் லேர்னிங் அல்கரிதம்ஸ் சின்தடிக் அல்லது மேனிபுலேட் செய்யப்பட்ட வாய்ஸ் ரெக்காடிங்ஸ் ஆகியவை ஒருவரின் குரலை மிமிக் செய்வதாகும். சமீபத்திய ஆண்டுகளில் தொழில்நுட்பம் கணிசமாக முன்னேறியுள்ளது, இப்போது மிகவும் யதார்த்தமான மற்றும் உறுதியான ஆடியோ போலிகளை உருவாக்க முடியும்.
AI குரல் குளோன் எவ்வாறு உருவாக்கப்படுகின்றன?
மற்றொருவருடைய வாய்ஸ் கொண்டு குளோன் செய்யப்படுவது மிகவும் எளிது. இதற்கு லேப்டாப் மற்றும் இன்டர்நெட் வசதி இருந்தால் போதும். யாருடைய குரலை குளோன் செய்ய வேண்டுமோ அவர்களின் ஆடியோ கிளிப் தேவை.
மேலே இருந்த வீடியோவை உருவாக்கியவர் சிவா என்பவரிடம் இது தொடர்பாக பேசினோம். அப்போது, “covers.ai என்ற இணையதளத்தைப் பயன்படுத்தி, ஒருவர் ஆடியோவைப் பதிவேற்றலாம், பின்னர் அவர்கள் விரும்பும் குரலைத் தேர்ந்தெடுத்தால், 5 நிமிடங்களில் ஆடியோ தயாராகிவிடும்,” என்று அவர் கூறினார். “மேலும் அந்த இணையதளத்தில் ரூ. 399 செலுத்தி யாரும் தங்கள் குரல் குளோனை உருவாக்கலாம். அவர்கள் குறைந்தபட்சம் 3 நிமிடம் நீளமான குரலின் நல்ல தரமான ஆடியோ கிளிப்பை பதிவேற்ற வேண்டும், பின்னர் ஒரு வாரம் காத்திருக்க வேண்டும். இணையதளம் அவர்களின் AI குரல் குளோனை உருவாக்கி கொடுக்கும் என்று கூறினார்" .
AI குரல் குளோன்களை எளிதாக உருவாக்க, play.ht மற்றும் Eleven Labs போன்ற பிற ஆன்லைன் கருவிகள் உள்ளன. AI குரல் குளோன்களை உருவாக்குவது குறித்து YouTube இல் பல பயிற்சிகள் உள்ளன என்றும் அவர் கூறினார்.
ஆடியோ டீப்ஃபேக்குகளைக் கண்டறிவது ஏன் கடினமானது?
முன்னதாக, ஆடியோ டீப்ஃபேக்குகள் மிகவும் ரோபோடிக் மற்றும் நம்பத்தகாதவை, அவற்றைக் கண்டறிவதை எளிதாக்குகிறது. இருப்பினும், அதன் பிறகு தொழில்நுட்பம் கணிசமாக முன்னேறியுள்ளது.
"மேம்பட்ட AI இன் உதவியுடன், பொது சமூக ஊடக சுயவிவரங்களில் பதிவிடப்பட்ட உள்ளடக்கத்தைப் பயன்படுத்தி டீப்ஃபேக் வீடியோக்கள் மற்றும் படங்கள் அதிகளவில் உருவாக்கப்படுகின்றன" என்று ஆரோன் புகல், ஆசியா பசிபிக் மற்றும் ஜப்பானின் பீல்ட் CTO மற்றும் சோபோஸ் தி இந்தியன் எக்ஸ்பிரஸ்ஸிடம் தெரிவித்தார்.
"சமூக சுயவிவரங்களை தனிப்பட்டதாக அமைப்பது மற்றும் தெரிந்த நண்பர்கள் அல்லது தொடர்புகளுக்கு மட்டுமே அவற்றைக் கட்டுப்படுத்த உதவும், அவர்களில் யாராவது அதை மறுபதிவு செய்ய மாட்டார்கள் அல்லது மோசமான நோக்கங்களுக்காகப் பயன்படுத்த மாட்டார்கள் என்பது உத்தரவாதம் அல்ல," என்று அவர் கூறினார்.
டீப்ஃபேக்கை அடையாளம் காண்பது எப்படி?
AI குரல் குளோன்கள் மற்றும் சாத்தியமான ஆடியோ டீப்ஃபேக்குகளைக் கையாள்வதற்கு விழிப்புணர்வும் செயலாக்கும் நடவடிக்கைகளும் தேவை. சமூக ஊடகங்களில் வீடியோ அல்லது ஆடியோ கிளிப்பைப் பார்க்கும்போதெல்லாம் நீங்கள் பின்பற்ற வேண்டிய மூன்று படிகள் இங்கே உள்ளன.
விழிப்போடு இருங்கள்: சமீபத்திய அரசியல் முன்னேற்றங்கள் மற்றும் முக்கிய அரசியல் தலைவர்களின் அறிக்கைகள் குறித்து எப்போதும் அப்டேட்டோடு இருங்கள். இதன் மூலம் நீங்கள் அவர்கள் பற்றி தெரிந்து கொள்ளவும், சமீபத்திய நடவடிக்கைகளை புரிந்து கொள்ளவும் முடியும். இதன் மூலம் அரசியல்வாதி ஒருவர் சர்ச்சைக்குரிய அறிக்கையை வெளியிடுவது தொடர்பான பரவலாக பகிரப்படும் ஆடியோ அல்லது வீடியோ கிளிப்பின் வலையில் சிக்காமல் இருக்க முடியும்.
பகிர்வதற்கு முன் சரிபார்க்கவும்: ஆடியோ அல்லது வீடியோ கிளிப்பின் source-ஐ சரிபார்க்கவும். ஆதாரம் நம்பகமானதாக இல்லாவிட்டால், பகிரக் கூடாது.
AI கண்டறிதல் கருவி பயன்படுத்தலாம்: ஆன்லைனில் சில AI குரல் கண்டறிதல் கருவிகள் உள்ளன, இருப்பினும் AI குரல் குளோனிங் கருவிகளைப் போல் இவை இலவசம் அல்ல. aivoicedetector.com, play.ht ஆகியவை AI குரல்களைக் கண்டறிய பயன்படும் கருவியாகும்.
தேர்தலுக்கு முன் நாம் ஏன் கூடுதல் விழிப்புடன் இருக்க வேண்டும்?
அரசியல் தலைவர்களின் பல ஆடியோ கிளிப்புகள் ஆன்லைனில் கிடைக்கின்றன. ஒரு தெளிவான ஆடியோ குளோனை உருவாக்குவதற்கு 1 அல்லது 2 நிமிட கிளிப் போதுமானது. தேர்தல்களின் போது, இந்தத் தவறான தகவல்கள் பொதுக் கருத்தை பாதிக்கலாம், வேட்பாளர்களின் நற்பெயரை பாதிக்கலாம். எனினும் இவ்வாறான குற்றங்களுக்கு எதிராக காவல்துறை சட்டத்தின் படி கடுமையான எச்சரிக்கை விடுத்து வருகின்றனர்.
source https://tamil.indianexpress.com/explained/as-elections-approach-how-to-deal-with-audio-deepfakes-1699164