TNPSC Thervupettagam

மனிதகுலத்தை விஞ்சும் ஏஐ: கடிவாளத்துக்கான தருணம்

May 4 , 2023 572 days 323 0
  • செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் மூலம் உலகம் எதிர்கொள்ளும் சவால்கள் குறித்த, ‘ஏஐ’ யுக அபாயங்களை எப்படித் தவிர்ப்பது?’ (ஏப்ரல் 28) கட்டுரை பல முக்கியத் தகவல்களைப் பதிவுசெய்திருந்தது. கூகுள் தலைமை நிறுவனத்தின் தலைமைச் செயல் அதிகாரி சுந்தர் பிச்சை சமீபத்தில் ஒரு தொலைக்காட்சி நிகழ்ச்சியில் பேசியபோது, செயற்கை நுண்ணறிவின் வளர்ச்சி குறித்து ஆக்கபூர்வமான நம்பிக்கையை வெளிப்படுத்தினாலும், அதில் பொதிந்திருக்கும் புரியாத பகுதிகள் குறித்துக் கவலை தெரிவித்தார்.
  • இத்தொழில்நுட்பம் குறித்துப் புகழ்பெற்ற இயற்பியல் அறிவியலாளர் ஸ்டீவன் ஹாக்கிங் கூறியிருந்த கருத்துகளும் நினைவுகூரத்தக்கவை. ‘மனிதர்கள் எழுதும் கணினி நிரல்கள் (program) மூலம், உள்ளீடுசெய்யப்படும் அறிவை வைத்துக்கொண்டு செயல்படுகிற ஏஐ தொழில் நுட்பமானது, அதை எழுதுபவர்கள் சொல்லாமலேயே, சுயமாகச் சிந்திக்கவும் புதிய நிரல்களை எழுதிக்கொள்ளவும் ஆரம்பித்துவிடும் ஆபத்து இருக்கிறது’ என்பது ஹாக்கிங்கின் கருத்து. அதற்கான அறிகுறிகளும் தற்போது தென்படத் தொடங்கிவிட்டன.

அதிர்ந்துபோன அறிவியலாளர்கள்:

  • சமீபத்தில் கூகுள் நிறுவனத்தில் ஒரு குறிப்பிட்ட ஏஐ நிரலுக்காக வங்காள மொழி தேவைப் பட்டது. நிரல் எழுதிய குழுவினர், அதற்கு வங்காள மொழியைக் கற்றுக் கொடுத்திருக்கவில்லை; அது தேவையென்றும் சொல்லவில்லை. ஆனால், நிரலில் ஓரிரு வங்காளச் சொற்கள் பயன்படுத்தப்பட்டிருந்தன. அந்த நிரல் தானாகவே வங்காள மொழியைக் கற்றுக்கொண்டு செயல்பட்டிருக்கிறது என்பதை அறிந்த குழுவினர் அதிர்ச்சியடைந்தனர்.
  • இந்தத் தகவலைக் கூகுள் நிறுவனத்தின் தொழில்நுட்பம் மற்றும் சமுதாயம் பிரிவின் மூத்த உதவித் தலைவர் ஜேம்ஸ் மன்யிகா தெரிவித்திருக்கிறார். “இது எங்களுக்கே ஆச்சரியமாகத் தான் இருக்கிறது” என்று கூறியிருக்கும் சுந்தர் பிச்சை, இத்தொழில்நுட்பம் புரிந்துகொள்ள முடியாததாக இருக்கிறது எனும் பொருள்படும்படி ‘பிளாக் பாக்ஸ்’ என்று ஒரு பதத்தைப் பயன்படுத்தியிருக்கிறார்.
  • சமீபத்தில் சாம்சங் நிறுவனப் பொறியாளர்கள், தாங்கள் எழுதியிருந்த ஒரு மூலக் குறியீட்டில் (Source Code) இருந்த தவறுகளைக் கண்டறிந்து சொல்ல சாட்ஜிபிடியிடம் (ChatGPT) கேட்டிருக்கிறார்கள். கடைசியில், சாம்சங் நிறுவனத்தின் மிக முக்கியமான தகவல் ஒன்றையும் அந்தச் செயற்கை நுண்ணறிவு மென்பொருள் தெரிந்துவைத்திருப்பதை அறிந்து அதிர்ந்திருக்கிறார்கள்.
  • செயற்கை நுண்ணறிவு என்பது, மனிதர்கள் யோசித்ததை மிக வேகமாக, துல்லியமாக, தொடர்ச்சியாக இயந்திரங்கள் செய்வதற்கான ஏற்பாடு. அப்படிப்பட்ட உயர்நிலை நிரல்களில், மனிதர்கள் எழுதாத நிரல்களைக்கூட, தேவை என்று ஏஐ இயந்திரங்கள் நினைத்தால்(!) தாமாகவே அவற்றையும் எழுதி செயல்படுத்தக்கூடும் என்பதுதான் ஆபத்தானதாகக் கருதப்படுகிறது.

எச்சரிக்கைக் குரல்கள்:

  • ஆக, தொடர் வளர்ச்சியில் ஏஐ மனிதர்களுக்கு அடங்காத பெரும் சக்தியாக மாறும் ஆபத்து இருக்கிறது. தவறானவர்களின் கையில் கிடைத்தால் அது பல விதங்களில் மனிதகுலத்துக்கு ஆபத்தாக முடியும். கூகுள், மைக்ரோசாஃப்ட், டெஸ்லா உள்ளிட்ட பல முன்னணி நிறுவனங்கள் இதைப் புரிந்துகொண்டிருக்கின்றன. அதனால்தான், இந்தத் துறையில் மேற்கொள்ளப்படும் ஆய்வுகள் கண்காணிக்கப்பட வேண்டும் எனும் குரல்கள் ஒலிக்கத் தொடங்கியிருக்கின்றன.
  • செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் முன்னோடிகளில் ஒருவரான ஜெஃப்ரி ஹின்டன் (Geoffrey Hinton), சமீபத்தில் கூகுள் நிறுவனத்திலிருந்து விலகிய கையோடு, சாட்ஜிபிடி போன்ற மென்பொருள்கள் எதிர்காலத்தில் மனிதர்களைவிடவும் அறிவு மிகுந்தவையாக ஆகிவிடலாம் என எச்சரித்திருக்கிறார். ஐரோப்பிய ஒன்றியத்தின் சட்ட வல்லுநர்கள் இது குறித்து விரைவாகக் கட்டுப்பாடுகள் கொண்டுவரப்பட வேண்டும் என வலியுறுத்தியிருக்கிறார்கள்.
  • இதன் தீவிரத்தன்மையை உணர்ந்துதான், ஏப்ரல் 30 அன்று நடைபெற்ற ஜி7 நாடுகளின் கூட்டமைப்புக் கூட்டத்தில், சாட்ஜிபிடியின் ஆபத்து குறித்தும் அதன் வளர்ச்சியையும், பயன்பாட்டையும் நெறிப்படுத்த வேண்டியதன் அவசியம் குறித்தும் அந்நாடுகளின் தலைவர்கள் விவாதித்திருக்கிறார்கள்.
  • காப்புரிமை, வெளிப்படைத்தன்மை தொடர்பான சிக்கல்கள், அந்நிய சக்திகள் தகவல்களைத் தவறாகப் பயன்படுத்துவது தொடர்பான ஆபத்துகளைத் தடுப்பதற்கான சட்டங்களை இயற்ற வேண்டும் என்று முடிவுசெய்திருக்கிறார்கள். செயற்கை நுண்ணறிவுச் சட்டம் (AI Act) ஒன்றைக் கொண்டுவரவும் முடிவுசெய்யப்பட்டிருக்கிறது.
  • எந்த ஒரு தொழில்நுட்பத்துக்கும் கடிவாளமும் கண்காணிப்பும் அவசியம். வளர்ந்த நாடுகள் அங்கம் வகிக்கும் ஜி7 இதற்கான முயற்சியில் இறங்கியிருப்பது மிகுந்த நம்பிக்கையளிக்கிறது.

நன்றி: தி இந்து (04 – 05 – 2023)

Leave a Reply

Your Comment is awaiting moderation.

Your email address will not be published. Required fields are marked *

பிரிவுகள்