- போலி நபர்களை விற்கும் தொழில் நிறுவனங்கள் தற்போது உருவாகியுள்ளன. ‘தனித்துவமான, கவலையற்ற’ போலி நபரை 2.99 டாலருக்கோ, ஆயிரம் பேரை 1,000 டாலர்களுக்கோ வாங்கலாம்.
- ஒரு வீடியோ விளையாட்டுக்காகவோ அல்லது உங்கள் நிறுவனத்தின் இணையதளம் பன்மைத்தன்மை கொண்டது என்று காட்டிக்கொள்வதற்காகவோ சில போலி நபர்கள் தேவை என்றால் அவர்களின் ஒளிப்படங்களை திஸ்பெர்ஸன்டஸ்நாட்எக்ஸிஸ்ட்.காம் (ThisPersonDoesNotExist.com) என்ற இணையதளத்தில் கட்டணமின்றிப் பெற்றுக்கொள்ளலாம்.
- நீங்கள் விரும்பியபடி அவர்களின் தோற்றத்தை மாற்றியமைத்துக்கொள்ளலாம்; நீங்கள் விரும்பிய இனத்தவராக அவரை மாற்றிக்கொள்ளலாம். உங்களின் போலி நபரை அசைவுகொள்பவராக மாற்ற வேண்டுமென்றால் அதை ரோஸ்பட்.
- ஏஐ (Rosebud.AI) என்ற நிறுவனம் செய்துதரும், அவர்களைப் பேசவும் வைக்கும்.கணினி மூலம் உருவாக்கப்பட்ட இந்த நபர்கள் இணைய உலகில் உலவ ஆரம்பித்திருக்கிறார்கள்.
- குற்ற உள்நோக்கம் கொண்ட நிஜ மனிதர்களால் இவர்கள் பயன்படுத்தப்படுகிறார்கள். கவர்ச்சிகரமான முகத்தைப் பயன்படுத்தி நுண்ணறிவுத் துறைகளில் ஊடுருவ முயலும் உளவாளிகள், போலி தன்விவரக் குறிப்புகளுக்குப் பின்னால் ஒளிந்துகொள்ளும் வலதுசாரி பிரச்சாரகர்கள், நட்புணர்வுடன் கூடிய முகத்தைப் பொருத்திக்கொண்டு இணையத்தில் தங்கள் இலக்குகளைச் சீண்டுபவர்கள் போன்றோர்தான் இந்தப் போலி முகங்களைப் பயன்படுத்துபவர்கள்.
போலி முக உருவாக்கம்
- பல்வேறுபட்ட போலி முகங்களை உருவாக்குவது எவ்வளவு எளிது என்பதைப் புரிந்துகொள்ளும் விதத்தில் எங்களுடைய ‘செயற்கை நுண்ணறிவு’ அமைப்பை உருவாக்கினோம். அந்த ‘செயற்கை நுண்ணறிவு’ அமைப்பு ஒவ்வொரு முகத்தையும் சிக்கலான கணித உருவமாகக் காண்கிறது.
- கண்களின் அளவையும் வடிவத்தையும் தீர்மானிப்பவை போன்ற வேறுபட்ட மதிப்புகளைத் தேர்ந்தெடுப்பதன் மூலம் ஒட்டுமொத்த படத்தையும் மாற்றியமைக்கலாம்.
- இதுபோன்ற போலிப் படங்களை உருவாக்குவது சமீப காலமாகத்தான் சாத்தியமானது. இதற்கு ‘ஜெனரேட்டிவ் அட்வெர்ஸரியல் நெட்வொர்க்’ (generative adversarial network) எனும் புதிய வகை ‘செயற்கை நுண்ணறிவு’க்குத்தான் நன்றிகூற வேண்டும். அடிப்படையில், உண்மையான மக்களின் படங்கள் சிலவற்றை ஒரு கணினிக்குள் நீங்கள் இட வேண்டும்.
- அது அவற்றை ஆய்வுசெய்து தானே நபர்களின் படங்களை உருவாக்கும்; அதன் இன்னொரு பகுதியோ இவற்றில் எவையெல்லாம் போலி என்பதைக் கண்டுபிடிக்க முயலும்.
யார் நிஜம், யார் போலிகள்?
- இந்தத் தொழில்நுட்பம் அடைந்துவரும் முன்னேற்றத்தைப் பார்க்கும்போது போலி நபர்களின் தனிப் படங்களை மட்டுமல்ல, கும்பல் கும்பலான படங்களை நாம் காணும் நாள் வெகு தொலைவில் இல்லை என்றே தோன்றுகிறது.
- போலி நண்பர்களுடன் ஒரு கொண்டாட்ட நிகழ்வில் இருப்பதுபோன்ற படங்கள், தங்களின் போலி நாய்களுடன் போலி நபர்கள் உலவுவதுபோன்ற படங்கள், தங்கள் போலிக் குழந்தைகளைத் தூக்கிவைத்திருப்பதுபோன்ற படங்கள் இவையெல்லாம் வெள்ளமெனப் பெருகவிருக்கின்றன.
- “2014-ல் இந்தத் தொழில்நுட்பம் முதலில் தோன்றியபோது சிம்ஸ் வீடியோ விளையாட்டுபோல் அது மோசமாகவே இருந்தது. எவ்வளவு வேகமாகத் தொழில்நுட்பம் மேம்பாடு அடையும் என்பதற்கான நினைவூட்டல் இது. போலியையும் உண்மையும் இனம் கண்டு பிரிப்பது போகப் போக மிகவும் கடினமாக ஆகிவிடும்” என்கிறார் போலிச் செய்திகளை ஆராய்பவரான கமிலி ஃப்ரான்ஸ்வா.
- முகத்தின் முக்கியமான அம்சங்களை மிகவும் சிறப்பாக அடையாளம் காணும் வகையில் தொழில்நுட்பம் வளர்ந்ததுதான் போலி முக உருவாக்கத்தில் ஏற்பட்ட தொழில்நுட்ப முன்னேற்றங்களுக்குப் பகுதியளவு காரணம்.
- உங்கள் முகத்தைப் பயன்படுத்தி உங்களின் திறன்பேசித் திரையைத் திறக்கலாம் அல்லது உங்களின் ஆயிரக்கணக்கான படங்களை அலசிப் பார்த்து அதை வைத்துக்கொண்டு உங்கள் குழந்தையின் படத்தைக் காட்டும்படி உங்கள் ஒளிப்பட மென்பொருளுக்கு நீங்கள் கட்டளை இடலாம்.
- குற்ற நடவடிக்கைகளில் தொடர்புடையவர்கள் என்று சந்தேகிக்கப்படுபவர்களை அடையாளம் கண்டு கைதுசெய்வதற்கு முக அடையாளம் காட்டும் கணினி நிரல்கள் பயன்படுத்தப்படுகின்றன.
அடையாளமறிதல் தொழில்நுட்பம்
- ஆனால், மற்ற ‘செயற்கை நுண்ணறிவு’ அமைப்புகளைப் போலவே ‘முக அடையாளமறிதல்’ அல்காரிதங்களும் முழுமையற்றவை. அவற்றைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவுகளில் உள்ள பாரபட்சம் காரணமாக இந்த அமைப்புகளில் சில அந்த அளவுக்குச் சிறப்பானவையாக இருப்பதில்லை.
- எடுத்துக்காட்டாக, வெள்ளையரல்லாதோரை அடையாளம் காணும்போது இந்த அல்காரிதங்கள் அவ்வளவு சிறப்பாகச் செயல்படுவதில்லை.
- மேலும், முக அடையாளமறிதல் அமைப்புகளின் கண்களாக இருக்கும் கேமராக்கள் கறுப்புத் தோல் உள்ளவர்களைப் படம்பிடிப்பதில் அவ்வளவு திறன்வாய்ந்தவையாக இருப்பதில்லை; இதற்குப் படச்சுருள் காலகட்டத்தின் ஆரம்ப நிலை நடைமுறைகள்தான் காரணம்.
- அப்போது வெள்ளை நிற மக்களின் முகத்தை நன்றாகக் காட்டும் விதத்தில் புகைப்படங்கள் திறன்மேம்படுத்தப்பட்டன. இதன் பின்விளைவுகள் மிக மோசமானதாக இருக்கக் கூடும்.
- ஜனவரியில், ராபர்ட் வில்லியம்ஸ் என்ற கறுப்பினத்தவர் அவர் செய்யாத குற்றத்துக்காக டெட்ராய்ட்டில் கைதுசெய்யப்பட்டார். இதற்கு, பிழையான முக அடையாளமறிதல் தொழில்நுட்பமே காரணம்.
- ‘செயற்கை நுண்ணறிவு’ நம் வாழ்க்கையை எளிதாக ஆக்கலாம், ஆனால் அதுவும் நம்மைப் போலவே தவறுகள் நிறைந்ததுவே; ஏனெனில், அதன் உருவாக்கத்தின் பின்னால் நாம்தானே இருக்கிறோம்.
- ‘செயற்கை நுண்ணறிவு’ அமைப்புகள் எப்படி உருவாக்கப்பட வேண்டும் என்ற தெரிவை மனிதர்களே செய்கிறார்கள்; எப்படிப்பட்ட தரவுகளை அவற்றில் உள்ளீடு செய்ய வேண்டும் என்பதையும் அவர்களே முடிவுசெய்கிறார்கள்.
- நமது மெய்நிகர் உதவியாளர்களுக்குக் கேட்பதற்குப் பயிற்சியளிப்பதற்கான குரல்களை நாமே தெரிவுசெய்கிறோம். இதனால், வெவ்வேறு வட்டார வழக்குகளைக் கொண்ட மக்களின் குரல்களை இந்த அமைப்புகளால் அடையாளம் காண முடியாமல் போய்விடுகிறது.
கணினிகள் நம்பத்தகுந்தவையா?
- மனிதர்கள் தவறிழைப்பார்கள்தான்: இந்த அமைப்புகளில் உள்ள தவறுகளை நாம் காணத் தவறிவிடுகிறோம் அல்லது மூடிமறைத்துவிடுகிறோம், கணினிகள் மிகவும் தர்க்கபூர்வமானவை, விருப்புவெறுப்புக்கு அப்பாற்பட்டவை, எப்போதும் சரியாகத்தான் இருக்கும் என்று மிக விரைவில் நம்பிவிடுகிறோம்.
- கணினிகளும் மனிதர்களும் சேர்ந்து முடிவெடுக்க வேண்டிய ஒரு சூழலில் – கைரேகைகளையோ மனித முகங்களையோ அடையாளம் காண்பதில் – கணினியால் குறிப்பிட்ட ஒரு முடிவை எடுக்கும்படி தூண்டப்படும்போது மனிதர்கள் தவறான அடையாளம் காணுதலைச் செய்கிறார்கள் என்பதை ஆய்வுகள் நிரூபித்திருக்கின்றன.
- காரின் டேஷ்போர்டு ஜிபிஎஸ் அமைப்புகளின் (வழியைக் காட்டும் சேவை) ஆரம்ப நாட்களில் ஓட்டுநர்கள் அந்த அமைப்புகளை மிதமிஞ்சிப் பின்பற்றி கார்களோடு ஏரிக்குள்ளோ பாறை உச்சியிலிருந்தோ விழுந்தார்கள் அல்லது மரங்களில் மோதினார்கள்.
- இது பணிவா அல்லது அதீதப் பெருமிதமா? நாம் மனித அறிவின் மீது மிகக் குறைவான மதிப்பு வைத்திருக்கிறோமா – அல்லது நம்மை விட புத்திசாலியான விஷயங்களை உருவாக்கக் கூடிய அளவில் நாம் புத்திசாலியானவர்கள் என்ற எண்ணத்தில் அதை அளவுக்கு அதிகமாக எடைபோடுகிறோமா?
- கூகுள், பிங் போன்றவற்றின் அல்காரிதங்கள் உலகத்தின் அறிவை நமக்காக வகைப்படுத்தித் தருகின்றன. ஃபேஸ்புக்கின் நியூஸ்ஃபீட் நமது சமூக வட்டங்களிலிருந்து சமீபத்திய பதிவுகள், தகவல்களை வடிகட்டித் தருகிறது; நமக்குக் காட்டுமளவுக்கு எவையெல்லாம் முக்கியமானவை என்று அது முடிவெடுக்கிறது.
- தானே ஓட்டிச்செல்லும் கார்களெல்லாம் வந்துவிட்டன. இவ்வாறாக நாம் நமது பாதுகாப்பை மென்பொருளின் கைகளில் (கண்களிலும்கூட) ஒப்படைத்துவிட்டோம்.
- இந்த அமைப்புகள் மீது நாம் அளப்பரிய நம்பிக்கையை வைத்திருக்கிறோம். அவை நம்மைப் போலவே தவறிழைக்கக் கூடியவையாக இருக்கும் என்பதுதான் உண்மை.
நன்றி : இந்து தமிழ் திசை (28-11-2020)