TNPSC Thervupettagam

டீப்ஃபேக் தொழில்நுட்பம் வரமா சாபமா

November 12 , 2023 232 days 172 0
  • செய்யறிவு (செயற்கை நுண்ணறிவு) எனப்படும் ஏஐ தொழில்நுட்பமே (AI Technology) இந்த நூற்றாண்டு கண்ட சலசலப்புகளில் பெரிய பேசுபொருளாக இருக்கப் போகிறது. 50 ஆண்டுகளுக்கும் முன் நம்முடைய வேலை வாய்ப்புகளை எல்லாம் தொழில்நுட்பங்கள் கைப்பற்றி விடும் என சொல்லியிருந்தால் எத்தனை கேலிகளுக்கு ஆளாகியிருப்போம்?
  • கூடு விட்டுக் கூடு பாயும் வித்தைக் கதைகளைக் கேட்டுச் சிரித்த தலைமுறைகளுக்குப் பின், இந்த ஏஐ தொழில்நுட்பம் நாளுக்கு நாள் மெருகேறுவதைக் கண்டால் உணர்வுகளைத் தவிர அனைத்து தேவைகளுக்கும் இவை முடிவுகளை வைத்திருக்கும் என்றே தோன்றுகிறது.
  • பல ஆயிரம் பேர் செய்ய வேண்டிய வேலைகளை ஒரு ஏஐ தொழில்நுட்பம் செய்கிறது என்றால் மனித ஆற்றலும் உழைப்பும் பூமிக்குத் தேவையில்லாத ஒன்றாக மாறிவிடுமோ என்ற அச்சத்தையும் எதிர்கொள்ளும் சூழலுக்குத் தள்ளப்பட்டிருக்கிறோம்.
  • அதிலும், குறிப்பாக இத்தொழில்நுட்பத்தைக் கொண்டு எந்த ஒரு மனிதரின் உடலிலும் யாரோ ஒருவரின் முகத்தை மிகக் கச்சிதமாகப் பொருத்த முடிகிறது. சந்தேகமே இல்லாத வகையில் அத்தனை தெளிவாக நம்பகத் தன்மையை உருவாக்குகிறது. டீப்ஃபேக் தொழில்நுட்பம் (deepfake technology) என அறியப்படும் இந்த வகை எடிட்கள் ஒருவரின் முகத்தை மற்றொருவரின் உடலில் கச்சிதமாகப் பொருந்தக் கூடிய வகையில் செய்யப்படுகின்றன. இதற்கு முன்பே இப்படியான எடிட்டிங் இருந்திருக்கிறது. ஆனால், அவை இத்தனை நுட்பமான நம்பகத் தன்மையை அளிக்கவில்லை.
  • ஏஐ மூலம் கவனம் பெற்ற இந்த டீப்ஃபேக் தொழில்நுட்பம் முழுக்க முழுக்கக் கேளிக்கைக்காக உருவாக்கப்பட்ட ஒன்றே. ஆனால், இதன் திறனைக் கண்ட சினிமாத் துறையினர் அதிகமும் இதைப் பயன்படுத்தி வருகின்றனர். காரணம், வயதான நாயகர்களை இளம் தோற்றத்தில் காட்ட இந்த தொழில்நுட்பம் பெரிய உதவிகளைச் செய்கிறது. நடிகர்கள் ஷா ருக் கான் முதல் விஜய் வரை கதையின் தேவைக்காக போலியாகச் சித்திரிக்கும் இந்த டீப்ஃபேக் தொழில்நுட்பம் கலைத்துறையில் பெரிய பாய்ச்சலை நிகழ்த்தத் தொடங்கியிருக்கிறது. இனிவரும் காலங்களில் எம்ஜிஆர், சிவாஜி போன்ற மறைந்த நடிகர்களையும் அதே தோற்றத்தில் நம்மால் திரையில் பார்க்க முடியும் என்பதே இதன் மிகப்பெரிய வெற்றிகளில் ஒன்றாகக் கருதப்படுகிறது.
  • ஆனால், இதைவிட பெரிய சிக்கலும் இருக்கிறது. முக்கியமாக, இந்தத் தொழில்நுட்பத்தால் போலிச் சித்திரிப்புகளுக்கு ஆளாவோரின் எண்ணிக்கையும் சமீப காலமாக அதிகரித்து வருகிறது.
  • இதை உறுதிப்படுத்தும் வகையில் சமீபத்தில்  ஷாரா பட்டேல் என்கிற நடிகையின் கவர்ச்சியான விடியோவில் நடிகை ராஷ்மிகா மந்தனாவின் முகத்தை சித்திரித்து உருவாக்கப்பட்ட மார்பிங் விடியோ இணையத்தில் வேகமாக பரவியது. இதனைக் கண்டு அதிர்ச்சியடைந்த ராஷ்மிகா, இதுகுறித்து தன் மனவேதனைகளைத் தெரிவித்தார். இந்தச் செயலுக்காக பாலிவுட் நடிகர் அமிதாப் பச்சன் உள்பட பலரும் கடும் கண்டனம் தெரிவித்ததுடன் நடவடிக்கை எடுக்கக் கோரி மத்திய அரசிடம் வலியுறுத்தி இருந்தனர்.
  • தொடர்ந்து, சித்திரிக்கப்பட்ட புகைப்படம் அல்லது விடியோவைப் பதிவிட்டால், தகவல் தொழில்நுட்பச் சட்டம், 2000 பிரிவு 66டி-இன் படி, 3 ஆண்டுகள் சிறைத் தண்டனையும், ரூபாய் ஒரு லட்சம் அபராதமும் விதிக்கப்படும் எனத் தெரிவிக்கப்பட்டது.
  • உண்மையில், ராஷ்மிகா போன்ற இந்திய அளவில் பிரபலம் கொண்டவர்கள் இப்பிரச்னையை கவனத்திற்குக் கொண்டுவந்தது ஒருபுறம் என்றால், அந்த விடியோவைக் கண்ட ரசிகர்களுக்கு அது ராஷ்மிகா இல்லை என்பது தெரியும். காரணம், சினிமாவில் மூலம் அவரின் தோற்றம் என்ன என்பது அனைவரும் அறிந்ததே. ஆனால், முன்பின் அறியாத பிரபலமில்லாதவர்கள் இந்த வலையில் சிக்கிக்கொண்டால் அது அவர்கள்தானா இல்லையா என்பதையே ஆய்வுக்கு உட்படுத்திக் கண்டுபிடிக்க வேண்டிய சூழல் ஏற்படும். இந்தத் தொழில்நுட்பத்தின் மிகப் பெரிய ஆபத்து இதுதான். சித்திரிக்கப்பட்ட ஆள் நீங்கள் இல்லை என்பதையே பல கட்ட சோதனைகளுக்குப் பின்பே நிரூபிக்க முடியும் என்கிற அவலம் ஏற்படலாம் என்பதே பல வல்லுநர்களின் கருத்தாக இருக்கிறது.
  • இதற்கு முன்னதாக, கேரளத்தைச் சேர்ந்த டாம் ஆண்டனி என்கிற மென்பொருள் பொறியாளர் பிரபல ஹாலிவுட் படமான ‘காட் ஃபாதர்’ படத்தின் ஒரு காட்சியை எடுத்து அதில் மோகன்லால், மம்மூட்டி, ஃபகத் ஃபாசில் ஆகியோரின் முகங்களை ஏஐ (AI) டீப்ஃபேக் எடிட் (deepfake edit) மூலம் காட்சியில் இடம்பெற்ற கதாபாத்திரங்களின் உடலில் மிகக் கச்சிதமாக பொருத்தி விடியோ ஒன்றை வெளியிட்டிருந்தார்.
  • அந்த விடியோவை இதுவரை பல லட்சம் பேர் கண்டுள்ளனர். காரணம், உண்மையிலேயே அந்த விடியோவில் மோகன் லாலும் மம்மூட்டியும் பேசுவதுபோல்தான் இருக்கிறது. இது பலரையும் திகைக்க வைத்ததால், இதை எடிட் செய்த டாம் ஆண்டனியே இதுகுறித்து தன் யூடியூப் பக்கத்தில் நீண்ட விளக்கமளித்தார்.
  • முக்கியமாக, “இந்த விடியோவை வெளியிட்டதும் இத்தனை பெரிய வைரலாகும் என நினைக்கவில்லை. முதலில் மகிழ்ச்சியாக இருந்தாலும் பின் என்னைப் பலரும் தொடர்புகொண்டு எப்படி இதைச் செய்தேன் எனக் கேட்கத்  துவங்கினர். காரணம், யார் வேண்டுமானாலும் இதைப் போன்ற ஃபேக் விடியோக்களை உருவாக்க முடியும். உண்மையிலேயே இப்போது பயமாக இருக்கிறது. நான் இந்த விடியோவை வெளியிடக் காரணம், தொழில்நுட்பம் எந்த வேகத்தில் சென்றுகொண்டிருக்கிறது என்பதைக் காட்டத்தான். ஆனால், இனி இதை முன்னோட்டமாகக் கொண்டு ஆபாச படங்களில், நிர்வாணக் காட்சிகளில் பிறரின் முகங்களை அதில் பொருத்திப் பார்ப்பதை நினைத்தாலே பயமாக இருக்கிறது. நான் இனி பிறரின் அனுமதியில்லாமல் இந்த மாதிரியான ஃபேக் விடியோக்களை உருவாக்க மாட்டேன்” எனக் கூறியிருந்தார்.
  • இதுதான் இத்தொழில்நுட்பத்தின் உண்மையான பிரச்னையாகவும் இருக்கப் போகிறது. இந்த அச்சுறுத்தலைக் கண்டு இனி ஒவ்வொரு மனிதரும் பயந்தே ஆக வேண்டும்போல. உலகம் முழுவதும் மறைந்த கலைஞர்களை இனி நம்மால் திரையில் பார்க்க முடியும். அதேவேளை, எல்லோர் கையிலும் எளிதாகப் புழங்கக் கூடிய வகையில் இந்த டீப்ஃபேக் தொழில்நுட்பம் இருப்பதும் ஆபத்தான ஒன்றாகவே பார்க்கப்படுகிறது. இதைத் தடுப்பதற்கென பல வழிகள் இருப்பினும் வல்லுநர்கள் கூறுவது, "உங்கள் முகத்தை யாராவது தவறாகக் பயன்படுத்தினால் அதை தைரியமாகத் தெரியப்படுத்துங்கள்" என்பதே. இந்தப் போலியான சித்திரிப்புகளை அவ்வளவு எளிதாக நிறுத்த முடியாது. ஆனால், பாதிக்கப்பட்டவர்கள் குரல் எழுப்புவதன் மூலம் இந்தத் தொழில்நுட்பம் யாரிடம் இருக்க வேண்டும் என்பதை அரசே முடிவு செய்வதற்கான வாய்ப்பை உருவாக்கலாம் என்கிற கருத்தும் நிலவுகிறது.
  • வரும் காலங்களில் மிக எளிதாக இப்படியான போலிச் சித்திரிப்புகளை செல்போன் உதவியுடனே கச்சிதமாக உருவாக்கிவிடலாம். இது தொழில்நுட்ப வளர்ச்சியின் வெற்றியாக இருந்தாலும் இதன் சாதக, பாதகங்களைக் கணக்கில்கொண்டே இவற்றை உபயோகப்படுத்தும்படியான நெறிகளும் கடைப்பிடிக்கப்பட வேண்டும்.
  • எல்லாவற்றையும்விட, இந்தக் குழப்பங்களுக்கு மத்தியில் யோசித்தால் ஒன்று புரிகிறது. இது பொய்தான் என நம் மூளையே நம்பாத காலத்திற்கு அழைத்துச் சென்றுகொண்டிருக்கிறது செய்யறிவுத் தொழில்நுட்பம்! அதன் விபரீதங்களைப் புரிந்து மக்களும் அரசும் செயல்பட வேண்டும் என்பதே உலகளாவிய கோரிக்கையாக இருக்கிறது!

நன்றி: தினமணி (12 – 11 – 2023)

Leave a Reply

Your Comment is awaiting moderation.

Your email address will not be published. Required fields are marked *

Categories