NationNewsTechnology

 கூகிளின் செயற்கை விவேகம்-Google DeepMind?

செயற்கை விவேகம் – இதை செயற்கை நுண்ணறிவு என்ற பதத்தில் சிலர் அழைக்கிறார்கள். நுண் என்பது micro என்பதோடு இணைத்துப் பழகிவிட்டது. அதுபற்றி இன்னுமொரு கட்டுரையில்)- சமீப காலங்களில் புழுதியைக் கிளப்பி பலரது பார்வைகளையும் மங்கவைத்து வருகிறது. அது புலன்களிலிருந்து அகலுமட்டும் நமக்கு இந்த வேதனை இருக்கப்போகிறது.

செயற்கை விவேக ஆராய்ச்சியிலும் பாவனையிலும் உலகம் எங்கே நீற்கிறது என்றதொரு ஆய்வுச் சுட்டியை ஐ.பி.எம். நிறுவனம் சமீபத்தில் வெளியிட்டிருக்கிறது. அதன் பிரகாரம் இந்த புள்ளி விபரம்:

செயற்கை விவேக ஆராய்ச்சியில் தற்போது இந்தியா உடபட, குறைந்தது 15 அபிவிருத்தியடைந்த நாடுகள் ஈடுபட்டு வருகின்றன. இவற்றில் செ.வி. கத்தைப் பாவிப்பதில், உலக ரீதியில், சீனா (58%), இந்தியா (57%) த்தில் முன்னணியில் நிற்கின்றன.
7,502 வியாபார நிறுவனங்கள் ஏற்கெனவே செ.வி. ஆராய்ச்சியிலும், பாவனையிலும் ஈடுபட்டு வருகின்றன. இந்த 15 நாடுகளிலும் தலா 500 நிறுவனங்கள் வரை இதில் ஈடுபடுகின்றன
̀35% மான நிறுவனங்கள் ஏற்கெனவே செ.வி. கத்தைப் பாவிக்கின்றன
42% மான நிறுவனங்கள் செ.வி. பாவனை பற்றி ஆலோசனையில் ஈடுபட்டு வருகின்றன
உலகில் 30% மான தகவல் தொழில்நுட்ப விற்பன்னர்கள் இத்துறையில் பணியாற்றி வருகின்றனர்
இப்படித் தொழில்நுட்பமும் மதிநுட்பமும் மாறும் வேகத்தைப் பார்த்தால் உலகம் எங்கோ விரைவில் இடிவாங்கப்போகிறது என்ற அச்சம் உங்களுக்கும் வராமலில்லை. செயற்கை விவேகத்தினால் வரக்கூடிய ஆபத்துக்கள் பற்றி அவற்றை உருவாக்கியவர்களே அச்சமுற்று எல்லாவற்றையும் தூக்கியெறிந்துவிட்டு ஓடியிருந்தனர். இதில் முன்னணியிலிருந்த கூகிள் இவ்வாராய்ச்சியைத் தூக்கில் தட்டில் வைத்துவிட்டிருந்தது. இச்சந்தர்ப்பத்தைப் பாவித்து மைக்கிரோசொட் போன்ற நிறுவனங்கள் இடைவெளியில் நுழைந்து தமது இலாபத்தைப் பெருக்க முயற்சி செய்தன. இதனால் தார்மீக ரீதியில் பின்வாங்கிக்கொண்ட கூகிள் வியாபார ரீதியில் பெரும் பின்னடைவைச் சந்தித்தது. வேறு வழிகள் இல்லாமல் இப்போது அது தனது செ.வி. ஆராய்ச்சியை முடுக்கிவிட்டிருக்கிறது.

உருவாக்க செயற்கை விவேகம் (Generative A.I.)
செயற்கை விவேகம் இப்போது இரண்டு வகைகளாகப் பேசப்படுகிறது. ஒன்று பொதுவான செ.வி (General AI) மற்றது உருவாக்க செ.வி. (Generative A.I.) பொதுவான செ.வி. தனக்குத் தர்ப்பட்ட தரவுகளைத் தொகுத்து ஆராய்ந்து ஒரு முடிவை எட்டுகிறது. அல்லது தனக்குத் தரப்பட்ட ஏவல்களைத் தரப்பட்ட தரவுகளுக்கிணங்கச் செய்கிறது. உதாரணம் எலெக்ட்றோனிக் தொலைபேசி பதிலாளர். (electronic telephone assistant)ஆனால் உருவாக்க செ.வி. தரப்பட்ட தரவுகளோடு கூடவே அவற்றுக்கு இணையான தரவுகளையும் தேடிப்பிடித்து எல்லாவற்றையும் முறையாக அடுக்கி விடையைத் தருகிறது. உதாரணம் கொம்பியூட்டர் ஸ்கிரீன். இதற்கு மட்டும் ஒரு வகுப்பு:

இப்பொழுது நாம் பார்க்கும் தொலைக்காட்சியில் படங்கள் மின்னி மின்னி (flickering) கண்களைத் தொந்தரவி செய்யாமலிருக்கவென RCA நிறுவனம் ஒரு புதிய தொழில்நுட்பத்தை 1932 இல் அறிமுகம் செய்தது. இதற்கு காரணம் அப்போது இருந்த தொழில்நுட்பத்தின் வேகம் போதாமையால் ஒரு பிம்பத்துண்டு கண்ணினால் கிரகிக்கப்பட்டு சில மைக்கிரோ செக்கண்டுகள் கழித்தே இரண்டாவது பிம்பத்துண்டு கண்ணுக்கு வந்து சேரும். ஒரு பிம்பத்தைத் துண்டுதுண்டாக்கி அனுப்பிப் பின்னர் தொலைக்காட்சிக் கருவியில் ஒன்றிணைப்பதுவே தஒலைக்காட்சித் தொழில்நுட்பம். கண்ணின் வேதனையைத் தவிர்க்கவென கண்டுபிடிக்கப்பட்டதே இந்த இடைச்செருகல். இடைச் செருகல் (interlacing) தொழில்நுட்பம் என அறியப்பட்ட இது தெரிந்த இரு தரவுகளை வைத்துக்கொண்டு இடைநடுவில் ஒரு தரவைக் கணித்து உருவாக்கி ஒரு பிம்பத்துண்டை உருவாக்கி அதுவும் உண்மையானதே எனக் கண்களைப் பேய்க்காட்டிவிடுகிறது. இதுபோலத்தான் இந்த உருவாக்க செ.வி. கமும் கொடுக்கப்பட்ட தரவுகளுக்கு ஏறத்தாள நெருக்கமான தரவுகளைத் தேடிப்பிடித்து இடைச்செருகி ஒரு நம்பகத்தனமை வாய்ந்த ‘பொருளை’ உருவாக்க்கிவிடுகிறது. இத் தொழில்நுட்பம் பழையதானாலும் தற்போது அசுர வேகத்தில் முன்னேறும் கணனிகளின் வேகமும், கூகிள் போன்ற நிறுவனங்களால் சேகரிக்கப்பட்டு சேமிக்கப்பட்டுள்ள தரவுகளுமே இதைச் சாத்தியமாக்கியுள்ளன.

தடங்கல்கள்
செயற்கை விவேகத்தை முழுமையாக நம்புவதற்கு பலர் மறுக்கிறார்கள். பல்கலைக்கழகங்கள், கல்லூரிகள், உயர்தர பாடசாலைகளில் மாணவர்களும் ஆசிரியர்களும் செ.விவேகத்தைப் பாவித்து தமது வினாக்களையும் விடைகளையும் தயாரிக்க ஆரம்பித்துவிட்டார்கள். இதனால் மூளை விருத்தி மந்தமடையச் சாத்தியமிருக்கிறது என எச்சரிக்கப்படுகிரது. ஆனாலும் செ.வி.யின் மிகப்பெரிய ஆபத்து பாவனைக்கென அது திரட்டும் தரவுகள் பல பிரத்தியேகமானவை. இதை யார் எப்போது திருடப்போகிறார்கள் எனத் தெரியாது.

இன்னுமொரு விடயம் தகவல்களின் உண்மைத்தன்மை. கணனிப் பாவனையாளர்கள் இடும் தகவல்களை உருவிச் சேகரிப்பதன் மூலமே கூகிள் போன்றவை தமது சேமிப்பை அதிகரிக்கின்றன. தம்மிடம் தகவல்களைக் கேட்டு வருபவர்களின் இருப்பிடங்கள், ஆசைகள், அபிலாட்சைகள், வாழ்வியல் முறைகள் போன்றவற்றை வைத்துக்கொண்டு அவை சில முடிவுகளைக் கட்டி விடுகின்றன. உதாரணத்திற்கு உங்கள் முகநூல் நண்பர் ஒரு மோட்டார் சைக்கிள் பைத்தியம் என்றால் உங்களுக்கும் அது இருக்கும் என ஓரளவு ஊகிக்கலாம். இதற்கு மேல் உங்கள் உரையாடல்களை உற்று அவதானித்து கூகிள் இதை உறுதிசெய்துவிடும். இத் தகவலை அது மோட்டார் சைக்கிள் நிறுவனங்களுக்கு விற்றுவிடும். உங்களைப் பற்றி ஒரு profile ஐக் கட்டமைக்கும்படி நீங்கள் செ.வி.கத்தைக் கேட்டால் அது கட்டப் போகும் கதையில் “நீங்கள் சிறுவனாக இருக்கும்போதே மோட்டார் சைக்கிளில் பிரியம். அப்பா முதன் முதலில் ஒரு ஸ்கூட்டர் வாங்கித் தந்தார்” எனக் கதைவிடும். இப்படி இடைச்செருகல்களுக்காக உங்களுக்காகச் சேமிக்கப்பட்ட தகவல்களுக்கு என்ன நடக்கப் போகிறது?

அநேகமான நிறுவனங்கள் செ.வி. பக்கம் நாடுவது தமது பணியாளர்களைக் குறைத்து இலாபத்தை அதிகரிப்பதற்காக. ஏற்கெனவே ஐ.பீ.எம் 8000 பணியாளர்களை நீக்க முடிவெடுத்துவிட்டது. இதனால் தொழிலாளர் சங்கங்களின் வேலை நிறுத்தங்கள் பல தடங்கல்களையும் கொண்டுவரப்போகிறது.

நனமை தீமைகள்
சூழல் பாதுகாப்பு விடயங்களில் செ.வி.த்தின் பாவனை மிகவும் பயனுள்ளதாக இருக்கப்போகிறது. கடந்த பல நூறு ஆண்டுகளாகச் சேகரிக்கப்பட்ட வானவியல் தடயங்களையும் தரவுகளையும் கொண்டு சூழல் எதிர்கொண்டுவரும் மாற்றங்களுக்கான முன்கூட்டிய எதிர்வினைகளை (proactive response) செயற்கை விவேகம் மூலம் உய்த்துணரும் வல்லமை உண்டு என நிபுணர்கள் கருதுகிறார்கள். இதனால் செ.விவேகத்தின் உபயோகத்தை ஊக்குவிக்கும் தரப்புகளோடு சூழலியலாளரும் இணைந்துகொள்கின்றனர். ஆனால் சேகரிக்கப்பட்ட தரவுகள் மூதல் அவற்றை ஆராயும் செயலிகள் வரை அவற்றின் மீது பூரணமான நம்பிக்கை இன்னும் முற்றாக வரவில்லை எனவே கூறப்படுகிறது.

கூகிளின் ‘ஆழ்மனம்’ (DeepMind)
இந்நிலையில் கூகிள் தற்போது அறிவித்திருக்கும் அடுத்த திட்டம் பாவனையாளருக்கு வாழ்வியல் தொடர்பான ஆலோசனைகளை வழங்குவது. உதாரணத்துக்கு ஒருவர் தனது காதல் பிரச்சினை பற்றி செயற்கை விவேகத்திடம் அழுது புலம்பி ஆலோசனை கேட்கலாம். அல்லது மருத்துவர்களுடன் உரையாட முடியாத சில பிரச்சினைகளுக்கு சில செக்கண்டுகளில் ஆலோசனையைப் பெறலாம். உளவள ஆலோசகர்களது வேலைகளைப் பறிக்கப்போகும் இத்திட்டம் பற்றி ஏற்கெனவே பலத்த எதிர்ப்புகள் கிளம்பியுள்ளன. இதற்காக ஒரு ஆரம்பநிலை நிறுவனமான Scale Ai யை $7.3 பில்லியன் டாலர்களுக்கு கூகிள் வாங்கியுள்ளது. 100 க்கு மேற்பட்ட கலாநிதிகள் (PhD’s) இதற்காகப் பணியாற்றுகின்றனர். Google DeepMind என்ற பிரிவின்கீழ் இத்திட்டம் செயற்படுத்தப்படுகிறது.

பல அரோக்கிய ஆலோசனைகளை வழங்கும் நிபுணர்கள் கூகிளின் இத்திட்டம் குறித்து அச்சம் தெரிவித்துள்ளார்கள். ஏற்கெனவே பல Chatbots மூலம் வழங்கப்படும் தவறான ஆலோசனைகள் அச்சேவைகளைத் தடைசெய்யுமளவுக்குப் போயுள்ளன. சில மனநோயாளிகள் இவ்வாலோசனைகளின் மூலம் உயிர்துறக்க நேரிட்டால் காப்புறுதி நிறுவனங்கள் தமது கொடுப்பனவுகளை நிறுத்திவிட இது வாய்ப்பளிக்கும். இதைத் தவிர்க்க கூகிள் தனது சேவைகளைப் பாவிப்பவர்கள் ஏற்கெனவே பொறுப்புத் துறப்பு Idisclaimer) ஒப்பந்தங்களில் கையெழுத்திடவேண்டுமென நிர்ப்பந்திக்கப்படுகிறார்கள். இருப்பினும் எத்தனைபேர் இவற்றை வாசித்து உடன்படுகிறார்கள் என்பது கேள்விக்குறியே

error: Content is protected !!உள்ளடக்கம் பாதுகாக்கப்படுகிறது!!