- நடிகைகள் ராஷ்மிகா மந்தனா, கத்ரீனா கைஃப்தொடர்பான ‘டீப் ஃபேக்’ காணொளிகள்சமீபத்தில் சமூக வலை தளங்களில் வெளியாகிபெரும் சர்ச்சையை ஏற்படுத்தியிருக்கின்றன. இதனைக் குறிப்பிட்டு நடிகை ராஷ்மிகா சமூக வலைதளப் பக்கத்தில் வேதனையுடன் தனது கருத்தைப் பகிர அமிதாப் பச்சன், கீர்த்தி சுரேஷ் உள்ளிட்ட பல்வேறு நடிகர்கள் டீப் ஃபேக் தொழில்நுட்பத்துக்கு எதிராகப் பதிவிடத் தொடங்கினர். மேலும், டீப் ஃபேக் தொடர்பாகப் புகார் பதிவு செய்யப் பட்ட 24 மணி நேரத்துக்குள் சமூக வலைதள நிறுவனங்கள் தங்கள் பக்கத்தில் இடம்பெற்றிருந்த காணொளிகளை அகற்றுமாறு மத்திய அரசு கேட்டுக்கொண்டது.
டீப் ஃபேக் அறிமுகம்
- செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தைப் பயன்படுத்தி டீப் ஃபேக் மூலம் காணொளி,ஒளிப்படம், ஒலித்துணுக்குகள் போன்றவை 2017ஆம்ஆண்டிலிருந்து சமூக வலைதளங்களில் உலவிக் கொண்டிருக்கின்றன. குறிப்பாக, ஆபாசக் காணொளிகளில் உள்ளவர்களின் முகங்களுக்குப் பதிலாகப் பிரபலங்களின் முகங்கள் போலியாக ஒட்டப்பட்டு ஆபாசத் தளங்களில் வெளியிடப்பட்டபோதுதான், டீப் ஃபேக் என்ற பதம் பரவலாகப் பயன்பாட்டுக்கு வந்தது. கடந்த சில மாதங்களில், டீப் ஃபேக் தொழில்நுட்பம் செயற்கை நுண்ணறிவைப் பயன்படுத்தி அடுத்த கட்டத்துக்குள் நுழைந்திருக்கிறது. 2023இல் டீப் ஃபேக் பயன்பாடு அதிகரித்திருக்கிறது. சைபர் கிரைம்குற்றவாளிகளும் மோசடியாளர்களும் இதை அதிகளவுபயன்படுத்தி வருவதாகவும், வருங்காலத்தில் இந்தத் தொழில்நுட்பம் தனிப்பட்ட நபர்களின் தரவுகளைத் திருடுவதற்குப் பயன்படுத்தப்படலாம் என்றும் இணையப் பாதுகாப்பு நிறுவனமான சைஃப்ரிமா (CYFRIMA) எச்சரித்திருக்கிறது.
டீப் ஃபேக் செயல்படும் விதம்
- ஜெனரேட்டிவ் அட்வர்சரியல் நெட்வொர்க் (Generative Adversarial Network) எனப்படும் தொழில்நுட்பத்தைப் பயன்படுத்திப் படங்களையும் காணொளிகளையும் மாற்றியமைப்பதும் உருவாக்குவதும் டீப் ஃபேக் தொழில்நுட்பத்தில் அடங்கும். இவைசெயற்கை நுண்ணறிவு உதவியுடன் குறிப்பிட்ட நபரின்அசைவுகளையும் முகபாவனைகளையும் கண்டறிகின்றன. பின்னர், அவற்றை வேறொரு காணொளி, ஒளிப்படத்தில் நகலெடுக்கின்றன. இவ்வாறு உருவாக்கப்படும் டீப் ஃபேக் பதிவுகள் நுட்பமான தொழில்நுட்பங்களால் உருவாக்கப்படுவதால் மற்ற மென்பொருள்கள் மூலம் இவற்றை அடையாளம் காண்பது சற்றே கடினமானது. இதன் காரணமாகவே டீப் ஃபேக் தொழில்நுட்பம் அனைவரிடத்திலும் அச்சத்தை ஏற்படுத்தியிருக்கிறது.
டீப் ஃபேக் பயன்படுத்தப்படும் பின்னணி
- இணையத்தில் ஒருவரைக் கேலி செய்வதற்கும் ஆபாசத் தளங்களில் போலியான காணொளிகளை உருவாக்குவதற்கும் டீப் ஃபேக் தொழில்நுட்பம் பயன்படுத்தப்படுகிறது. அரசியல் தலைவர்களுக்கு எதிராகவன்முறையைத் தூண்டுவதற்கும், அரசியல்ரீதியானஉறவுகளைச் சீர்குலைப்பதற்கும், தவறான தகவல்களைப் பரப்புவதற்கும் டீப் ஃபேக் தொழில்நுட்பம் பயன்படுத்தப்படுவதற்கு நிறைய சாத்தியம் உண்டு. பொதுவாகவே, எந்த ஒரு தொழில்நுட்பத்துக்கும் நேர்மறையான பண்புகளும் உண்டு, எதிர்மறையான பண்புகளும் உண்டு. டீப் ஃபேக் தொழில்நுட்பம் மேற்குறிப்பிட்ட எதிர்மறையான பண்புகளைக் கொண்டிருந்தாலும், அதன் அளவில் நேர்மறையான பண்புகளையும் கொண்டிருக்கிறது. உதாரணத்துக்கு, மருத்துவத் துறைகளில் அதன் பயன்பாடு குறிப்பிடத்தக்கது. மோட்டார் நியூரான் நோயால் பாதிக்கப்பட்டுக் குரல் இழந்தவர்களுக்கு அவர்களது குரல்களைக் குளோனிங் செய்து, எதிர்காலத்தில் மீண்டும் உருவாக்குவதற்கு இம்மாதிரியான தொழில்நுட்பங்கள் உதவுகின்றன.
இந்தியச் சட்டங்கள் என்ன சொல்கின்றன
- டீப் ஃபேக் தொழில்நுட்பத்தால் உருவாகும் போலியான காணொளிகளிலிருந்து தனிமனிதர்களைப் பாதுகாக்கப் போதிய சட்டங்கள் இந்தியாவில் இருக்கின்றன. டீப் ஃபேக் தொழில்நுட்பம் குறித்துப் புகார் அளிக்கப்பட்ட 24 மணி நேரத்துக்குள், சம்பந்தப்பட்ட தளங்களில் இடம்பெற்றுள்ள போலி காணொளிகளையும் ஒளிப்படங்களையும் நீக்க வேண்டும் என்று இந்தியத் தொழில்நுட்ப விதிமுறை 2021 கூறுகிறது. நடிகை ராஷ்மிகாவின் டீப் ஃபேக் காணொளி வைரலானபோது, இந்தியத் தொழில்நுட்ப அமைச்சகம் சமூக வலைதளங்களுக்கு அறிக்கை ஒன்றை வெளியிட்டது. அதில், “இணையத்தில் ஆள்மாறாட்டம் செய்வது 2000ஆம் ஆண்டு இயற்றப்பட்ட தகவல் தொழில்நுட்பச் சட்டப் பிரிவு 66Dஇன் கீழ் சட்டவிரோதமானது” என்று குறிப்பிடப்பட்டுள்ளது.
பிற நாடுகளில்
- டீப் ஃபேக் தொழில்நுட்பம் தவறாகப்பயன்படுத்தப்படுவதைக் கட்டுப்படுத்தப் பல்வேறு நாடுகள் சட்டங்களை இயற்றியுள்ளன. சமூக வலைதளங்களில் போலிகளை அடையாளம் காண்பதற்கென தனிநபர்களை நியமித்து, அவர்களுக்கு உரிய வழிகாட்டு முறைகளையும் ஐரோப்பிய ஒன்றியம் வரை யறுத்திருக்கிறது. டீப் ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்படும் போலிகளைக் கண்டறிவதற்கென உரியவழிகாட்டுதல்களைப் பயனர்களுக்குச் சீனா வழங்கியிருக்கிறது. அடுத்ததாக, டீப் ஃபேக் தொழில்நுட்பத்தால் வரும் அச்சுறுத்தலை எதிர்கொள்ள அமெரிக்கா டீப் ஃபேக் பணிக்குழுச் சட்டத்தை (Deepfake Task Force Act) அறிமுகப்படுத்தியுள்ளது.
நன்றி: தி இந்து (15 – 11 – 2023)