AGI அச்சுறுத்தல்: தயாரா நாம்?

செயற்கை நுண்ணறிவின் (AI) இடைவிடாத முன்னேற்றம், உற்சாகத்தையும் அச்சத்தையும் ஒருங்கே தூண்டியுள்ளது. முன்னணி AI ஆய்வகங்களில், செயற்கை பொது நுண்ணறிவு (AGI) என்ற வார்த்தை அடிக்கடி பேசப்படுகிறது. ஒரு காலத்தில் எட்டாக்கனியாக இருந்த இது, அடுத்த தசாப்தத்தில் சாத்தியமாகும் என்று கருதப்படுகிறது. ஜெனரேட்டிவ் AI முன்னெப்போதும் இல்லாத உயரங்களைத் தொடும்போது, AGI ஒரு வெறும் முழக்கமாக இல்லாமல் உறுதியான சாத்தியமாக மாறி வருகிறது.

OpenAI-யின் நம்பிக்கை மற்றும் சந்தேகத்தின் நிழல்

OpenAI-யின் தலைமை நிர்வாக அதிகாரி சாம் ஆல்ட்மேன், தனது குழு AGI-ஐ உருவாக்கும் திறனில் அசைக்க முடியாத நம்பிக்கையை வெளிப்படுத்தியுள்ளார். மேலும் அதிநுண்ணறிவுத் துறையை நோக்கி ஒரு மூலோபாய மாற்றத்தை அவர் கோடிட்டுக் காட்டியுள்ளார். அடுத்த ஐந்து ஆண்டுகளில் OpenAI இந்த மாற்றத்தை நிகழ்த்தும் என்று ஆல்ட்மேன் துணிச்சலாகக் கணித்துள்ளார். இது தொழில்நுட்ப உலகில் எதிர்பார்ப்புகளையும் கவலைகளையும் எழுப்புகிறது. இந்த முக்கியமான தருணம் குறைந்த சமூக பாதிப்புடன் வெளிப்படலாம் என்று அவர் கூறுகிறார். ஆனால் இது பல நிபுணர்களின் கவலைகளுடன் முரண்படுகிறது.

இருப்பினும், இந்த நம்பிக்கையான கண்ணோட்டம் உலகளவில் பகிரப்படவில்லை. AI ஆராய்ச்சி சமூகத்தின் மூலைகளில் இருந்து எச்சரிக்கை மற்றும் கவலைகளின் குரல்கள் ஒலிக்கின்றன. AI பாதுகாப்பு ஆராய்ச்சியாளர் ரோமன் யாம்போல்ஸ்கி, AI இறுதியில் மனிதகுலத்தின் முடிவை எழுதும் என்பதற்கு 99.999999% அதிக நிகழ்தகவை வழங்குகிறார். யாம்போல்ஸ்கியின் கூற்றுப்படி, AI-யின் வளர்ச்சி மற்றும் பயன்பாட்டை நிறுத்துவதே இந்த பேரழிவு விளைவை தவிர்க்க ஒரே வழி. இந்த கடுமையான எச்சரிக்கை, AI தொழில்நுட்பத்தில் ஏற்படும் விரைவான முன்னேற்றங்களுடன் வரும் ஆழமான நெறிமுறை மற்றும் இருத்தலியல் கேள்விகளை அடிக்கோடிட்டுக் காட்டுகிறது.

டெமிஸ் ஹசாபிஸின் நள்ளிரவு கவலைகள்

சமீபத்திய பேட்டியில், Google DeepMind-ன் CEO டெமிஸ் ஹசாபிஸ், AI-யின் விரைவான முன்னேற்றம் மற்றும் அதிகரிக்கும் திறன்கள் குறித்து தனது ஆழ்ந்த கவலைகளை வெளிப்படுத்தினார். அடுத்த ஐந்து முதல் பத்து ஆண்டுகளில் AGI வரம்பை அடையும் தருவாயில் நாம் இருப்பதாக ஹசாபிஸ் நம்புகிறார். இந்த உணர்தல் தன்னை இரவில் தூங்க விடாமல் செய்கிறது என்று அவர் ஒப்புக்கொண்டார். இந்த புதிய பாதையை வழிநடத்தும் பொறுப்பின் சுமையை இது காட்டுகிறது.

முதலீட்டாளர்கள் AI துறையில் அதிக முதலீடு செய்கிறார்கள். ஆனால் லாபத்திற்கான தெளிவான பாதை இல்லை. இந்நிலையில் ஹசாபிஸின் கவலைகள் மிகவும் கூர்மையானவை. சாத்தியமான வெகுமதிகள் பெரியவை, ஆனால் அபாயங்களும் அப்படியே. AGI-ஐ நோக்கிய முயற்சி கவனமாகவும் திட்டமிட்டும் இருக்க வேண்டும். தொழில்நுட்ப கண்டுபிடிப்புகளுடன் பாதுகாப்பு மற்றும் நெறிமுறை கருதுகோள்களுக்கு முன்னுரிமை அளிக்க வேண்டும்.

ஹசாபிஸ் ஒரு கடுமையான எச்சரிக்கையுடன் சூழ்நிலையின் அவசரத்தை சுட்டிக்காட்டுகிறார்:

இது நிகழ்தகவு விநியோகம் போன்றது. எப்படியிருந்தாலும் இது மிக விரைவில் வருகிறது. அதற்கு சமூகம் தயாராக இருக்கிறதா என்று எனக்குத் தெரியவில்லை. நாம் இதைப் பற்றி சிந்திக்க வேண்டும். மேலும் இந்த அமைப்புகளின் கட்டுப்பாடு மற்றும் அணுகல் தொடர்பான சிக்கல்களைப் பற்றியும் சிந்திக்க வேண்டும்.

AI-யின் ஆழம்: ஒரு கருப்பு பெட்டி மர்மம்

AGI விவாதத்திற்கு மற்றொரு அடுக்கைச் சேர்ப்பது Anthropic CEO டாரியோ அமோடி தனது சொந்த AI மாதிரிகள் எவ்வாறு செயல்படுகின்றன என்பதை முழுமையாகப் புரிந்து கொள்ளவில்லை என்று ஒப்புக்கொண்டது. இந்த வெளிப்பாடு பயனர்கள் மற்றும் நிபுணர்கள் மத்தியில் கவலைகளைத் தூண்டியுள்ளது. மேலும் பெருகிவரும் அதிநவீன அமைப்புகளின் வெளிப்படைத்தன்மை மற்றும் கட்டுப்பாடு பற்றிய அடிப்படை கேள்விகளை எழுப்புகிறது. AI-யின் உள் செயல்பாடுகளை நம்மால் முழுமையாகப் புரிந்து கொள்ள முடியாவிட்டால், அதன் பாதுகாப்பான மற்றும் பொறுப்பான வளர்ச்சியை எவ்வாறு உறுதிப்படுத்துவது?

AGI, வரையறையின்படி, மனித நுண்ணறிவை மீறும் ஒரு AI அமைப்பைக் குறிக்கிறது. அறிவாற்றல் திறன்களை விஞ்சும் ஒரு AI அமைப்பாகும். அறிவுத்திறனில் உள்ள இந்த வேறுபாடு, இந்த அமைப்புகளை மனிதர்கள் எப்போதும் கட்டுக்குள் வைத்திருப்பதை உறுதி செய்வதற்கான வலுவான பாதுகாப்புகளை செயல்படுத்த வேண்டியது அவசியம். அவ்வாறு செய்யத் தவறினால் ஏற்படும் விளைவுகள் கற்பனை செய்ய முடியாதவை. மனிதகுலத்தின் உயிர்வாழ்வு AGI-யின் சக்தியை நிர்வகிக்கும் நமது திறனைப் பொறுத்தது.

பாதுகாப்பை விட தயாரிப்புகளுக்கு முன்னுரிமை: ஆபத்தான சூதாட்டம்

AGI தொடர்பான கவலையை மேலும் தூண்டுவது OpenAI ஒரு AGI-ஐ அடையும் தருவாயில் உள்ளது. ஆனால் அதன் ஆழமான தாக்கங்களைச் சமாளிக்கத் தேவையான தயார்நிலை இல்லை என்று முன்னாள் OpenAI ஆராய்ச்சியாளர் ஒருவர் கூறிய அறிக்கை. புதிய தயாரிப்புகளை உருவாக்குவதில் அதிக கவனம் செலுத்துகிறது. இது பேரழிவு விளைவுகளை ஏற்படுத்தக்கூடும்.

புத்தாக்கத்தின் கவர்ச்சி மற்றும் அற்புதமான தயாரிப்புகளை வழங்கும் அழுத்தம் சில நேரங்களில் கடுமையான பாதுகாப்பு நெறிமுறைகளின் முக்கியமான தேவையை மறைக்கக்கூடும். இருப்பினும், AGI போன்ற சக்திவாய்ந்த மற்றும் மாற்றக்கூடிய தொழில்நுட்பங்களைக் கையாளும் போது, பாதுகாப்பு மிக முக்கியமானது. பாதுகாப்பிற்கு முன்னுரிமை அளிக்கத் தவறினால் எதிர்பாராத விளைவுகள் ஏற்படக்கூடும். இது AI-யின் முன்னேற்றத்தையும் ஒட்டுமொத்த சமூகத்தின் நல்வாழ்வையும் ஆபத்தில் ஆழ்த்தும்.

AGI-யின் வரைபடமில்லாத நீரில் பயணம் செய்தல்: எச்சரிக்கை மற்றும் ஒத்துழைப்புக்கான அழைப்பு

AGI-யின் தோற்றம் மனிதகுலத்திற்கு ஒரு ஆழமான சவாலையும் இணையற்ற வாய்ப்பையும் வழங்குகிறது. இந்த வரைபடமில்லாத பிரதேசத்தில் நாம் நுழையும்போது, பொறுப்புணர்வு மற்றும் நெறிமுறை கோட்பாடுகளின் அடிப்படையில் எச்சரிக்கையுடன் செயல்படுவது கட்டாயமாகும். AGI-யின் வளர்ச்சி ஒரு பந்தயமாகக் கருதப்படக்கூடாது. மாறாக அதன் உள்ளார்ந்த அபாயங்களைக் குறைக்கும் அதே நேரத்தில் AI-யின் முழு திறனையும் திறப்பதற்கான ஒரு கூட்டு முயற்சியாகக் கருதப்பட வேண்டும்.

AGI-யின் வளர்ச்சி நமது பகிரப்பட்ட மதிப்புகள் மற்றும் அபிலாஷைகளுடன் ஒத்துப்போவதை உறுதி செய்வதற்காக ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பொது மக்களிடையே வெளிப்படையான உரையாடலை நாம் வளர்க்க வேண்டும். AI-யின் திறன்கள் மற்றும் வரம்புகளைப் பற்றி நன்கு புரிந்துகொள்ளவும், அதன் பாதுகாப்பு மற்றும் கட்டுப்பாட்டை உறுதி செய்வதற்கான பயனுள்ள முறைகளை உருவாக்கவும் நாம் ஆராய்ச்சியில் முதலீடு செய்ய வேண்டும். மேலும் சாத்தியமான தீங்குகளுக்கு எதிராக பாதுகாக்கும் அதே நேரத்தில் புதுமைகளை ஊக்குவிக்கும் வலுவான ஒழுங்குமுறை கட்டமைப்புகளை நாம் நிறுவ வேண்டும்.

AGI முன்வைக்கும் சிக்கலான மற்றும் பல்துறை சவால்களைச் சமாளிக்கும் நமது திறனைப் பொறுத்தே மனிதகுலத்தின் எதிர்காலம் உள்ளது. ஒத்துழைப்பு உணர்வை ஏற்றுக்கொள்வதன் மூலமும், பாதுகாப்பிற்கு முன்னுரிமை அளிப்பதன் மூலமும், நெறிமுறை கோட்பாடுகளைக் கடைப்பிடிப்பதன் மூலமும் AI-யின் மாற்றும் சக்தியை அனைவருக்கும் சிறந்த எதிர்காலத்தை உருவாக்க பயன்படுத்தலாம்.

அதிநுண்ணறிவின் நெறிமுறை கயிறு

செயற்கை பொது நுண்ணறிவின் (AGI) வளர்ச்சி ஒரு முன்னோடியில்லாத நெறிமுறை சவாலை முன்வைக்கிறது. AI அமைப்புகள் மனித அறிவாற்றல் திறன்களை நெருங்கி வரும்போது, உணர்வு, தார்மீக அமைப்பு மற்றும் மனிதனாக இருப்பதன் வரையறை பற்றிய ஆழமான கேள்விகளை நாம் எதிர்கொள்ள வேண்டும். இன்று நாம் எடுக்கும் முடிவுகள் AI-யின் எதிர்காலத்தையும் சமூகத்தில் அதன் தாக்கத்தையும் தலைமுறைகளாக வடிவமைக்கும்.

AI அமைப்புகளில் சாத்தியமான சார்புநிலை மிகவும் அழுத்தமான நெறிமுறை கவலைகளில் ஒன்றாகும். AI வழிமுறைகள் பரந்த தரவுத்தொகுப்புகளில் பயிற்றுவிக்கப்படுகின்றன. இந்த தரவுத்தொகுப்புகள் ஏற்கனவே உள்ள சமூக சார்புநிலைகளைப் பிரதிபலித்தால், AI அமைப்புகள் தவிர்க்க முடியாமல் அந்த சார்புநிலைகளை நிலைநிறுத்தும் மற்றும் அதிகரிக்கும். இது பணியமர்த்தல், கடன் வழங்குதல் மற்றும் குற்றவியல் நீதி போன்ற துறைகளில் பாகுபாடு விளைவிக்கும். AI அமைப்புகளில் சார்புநிலையை அடையாளம் கண்டு தணிப்பதற்கான முறைகளை நாம் உருவாக்க வேண்டும்.

AI ஐ தவறான நோக்கங்களுக்காக பயன்படுத்தும் சாத்தியக்கூறும் மற்றொரு நெறிமுறை சவாலாகும். தன்னாட்சி ஆயுதங்களை உருவாக்கவும், தவறான தகவல்களை பரப்பவும் அல்லது இணையப் போரில் ஈடுபடவும் AI ஐப் பயன்படுத்தலாம். தனிநபர்கள் அல்லது ஒட்டுமொத்த சமூகத்திற்கு தீங்கு விளைவிக்காத வகையில் AI ஐ தடுக்க பாதுகாப்புகளை உருவாக்க வேண்டும். AI பயன்பாட்டை நிர்வகிக்கும் சர்வதேச விதிமுறைகள் மற்றும் ஒழுங்குமுறைகளை உருவாக்குவது மற்றும் AI பாதுகாப்பு மற்றும் பாதுகாப்பு குறித்த ஆராய்ச்சியில் முதலீடு செய்வது இதில் அடங்கும்.

மேலும், AGI-யின் வளர்ச்சி அதன் நன்மைகளின் விநியோகம் குறித்த கேள்விகளை எழுப்புகிறது. AGI அதிக பொருளாதார சமத்துவமின்மைக்கு வழிவகுக்குமா அல்லது அது ஒரு நியாயமான மற்றும் சமமான சமூகத்தை உருவாக்கப் பயன்படுமா? AGI-யின் சாத்தியமான சமூக மற்றும் பொருளாதார தாக்கங்களை நாம் கருத்தில் கொள்வது முக்கியம். அதன் நன்மைகள் பரவலாகப் பகிரப்படுவதை உறுதிப்படுத்த நடவடிக்கைகள் எடுக்க வேண்டும். உலகளாவிய அடிப்படை வருமானம் அல்லது கல்வி மற்றும் பயிற்சி ஆகியவற்றில் அதிக முதலீடு போன்ற கொள்கைகள் இதற்குத் தேவைப்படலாம்.

இறுதியாக, AGI-யின் வளர்ச்சி மனிதர்களுக்கும் இயந்திரங்களுக்கும் இடையிலான உறவு பற்றிய அடிப்படை கேள்விகளை எழுப்புகிறது. AI அமைப்புகள் புத்திசாலித்தனமாக மாறும் போது, உலகில் நமது இடத்தை நாம் எவ்வாறு வரையறுப்போம்? அதிபுத்திசாலித்தனமான AI உடன் நாம் அமைதியாக வாழ முடியுமா அல்லது அதனால் நாம் அச்சுறுத்தப்படுவோமா? AGI ஒரு யதார்த்தமாக மாறும் முன் நாம் இப்போது உரையாற்றத் தொடங்க வேண்டிய கேள்விகள் இவை.

கட்டுப்படுத்தும் புதிர்: மனித மேற்பார்வையை உறுதி செய்தல்

AGI ஐச் சுற்றியுள்ள விவாதத்தில் கட்டுப்பாடு என்ற கேள்வி பெரியதாக உள்ளது. AI அமைப்புகள் புத்திசாலித்தனமாக மாறும் போது அவை மனிதர்களின் கட்டுப்பாட்டில் இருப்பதை உறுதி செய்வது, எதிர்பாராத விளைவுகளைத் தடுப்பதற்கும் சாத்தியமான அபாயங்களைக் குறைப்பதற்கும் மிக முக்கியமானது. AI அமைப்புகளின் நடத்தையை கண்காணித்தல், புரிந்துகொள்வது மற்றும் செல்வாக்கு செலுத்துவதற்கான வலுவான வழிமுறைகளை உருவாக்குவதற்கு இது தேவைப்படுகிறது.

கட்டுப்பாட்டை உறுதி செய்வதற்கான ஒரு வழி வெளிப்படையான மற்றும் விளக்கக்கூடிய AI அமைப்புகளை வடிவமைப்பதாகும். AI அமைப்புகள் எவ்வாறு முடிவுகளை எடுக்கின்றன மற்றும் அவை ஏன் சில செயல்களைச் செய்கின்றன என்பதை நாம் புரிந்து கொள்ள வேண்டும். AI அமைப்புகளில் உள்ள பிழைகள் அல்லது சார்புநிலைகளை அடையாளம் கண்டு சரிசெய்ய இது அனுமதிக்கும்.

மனித இலக்குகளுடன் ஒத்துப்போகும் AI அமைப்புகளை உருவாக்குவது மற்றொரு அணுகுமுறையாகும். AI அமைப்புகள் மனிதகுலத்திற்கு பயனளிக்கும் நோக்கங்களை தொடர வேண்டும். மனித மதிப்புகள் பற்றிய தெளிவான புரிதலை வளர்ப்பது மற்றும் AI அமைப்புகளுக்கான உறுதியான இலக்குகளாக அவற்றை மாற்றுவது இதற்குத் தேவைப்படுகிறது.

மேலும், அவசரகால சூழ்நிலைகளில் AI அமைப்புகளை மேலெழுத வழிமுறைகளை உருவாக்குவது அவசியம். தீங்கு விளைவிக்கும் அல்லது ஆபத்தான வகையில் செயல்பட்டால் AI அமைப்புகளை நிறுத்த அல்லது மாற்ற இது அனுமதிக்கும். AI அமைப்புகளைக் கட்டுப்படுத்துவதற்கான பாதுகாப்பான மற்றும் நம்பகமான முறைகளை உருவாக்குவது மற்றும் எப்போது, எப்படி இந்த கட்டுப்பாட்டைப் பயன்படுத்துவது என்பதற்கான தெளிவான நெறிமுறைகளை நிறுவுவது இதற்குத் தேவைப்படுகிறது.

கட்டுப்பாடு என்பது வெறுமனே ஒரு தொழில்நுட்ப சவால் அல்ல. இதற்கு நெறிமுறை மற்றும் சமூகக் கருதுகோள்களையும் கையாளுதல் தேவைப்படுகிறது. AI அமைப்புகளைக் கட்டுப்படுத்த யாருக்கு அதிகாரம் இருக்க வேண்டும் மற்றும் அந்த அதிகாரம் எவ்வாறு பயன்படுத்தப்பட வேண்டும் என்பதை நாம் தீர்மானிக்க வேண்டும். வரையறுக்கப்பட்ட சூழ்நிலைகளில் கூட AI அமைப்புகளுக்கு கட்டுப்பாட்டை விட்டுக்கொடுப்பதன் சாத்தியமான தாக்கங்களையும் நாம் கருத்தில் கொள்ள வேண்டும்.

அணுகல் சமன்பாடு: சமமான விநியோகத்தை உறுதி செய்தல்

AGI க்கான அணுகல் என்பது அதன் வளர்ச்சியின் நெறிமுறை மற்றும் சமூக தாக்கங்களுடன் நெருக்கமாக பின்னிப்பிணைந்துள்ளது. AGI க்கான சமமான அணுகலை உறுதி செய்வது ஏற்கனவே உள்ள சமத்துவமின்மையை மோசமாக்குவதையும் சமூகப் பிரிவுகளின் புதிய வடிவங்களை உருவாக்குவதையும் தடுக்க மிக முக்கியமானது.

AGI ஒரு சிலரின் கைகளில் செல்வம் மற்றும் சக்தியை மேலும் குவிக்கப் பயன்படும் என்பது ஒரு கவலை. AGI முதன்மையாக நிறுவனங்கள் அல்லது அரசாங்கங்களால் உருவாக்கப்பட்டு கட்டுப்படுத்தப்பட்டால், அது வேலைகளை தானியக்கமாக்க, ஊதியங்களை ஒடுக்க மற்றும் கண்காணிப்பு திறன்களை மேம்படுத்தப் பயன்படும். இது பணக்காரர்களுக்கும் ஏழைகளுக்கும் இடையிலான இடைவெளியை விரிவுபடுத்தும். தனிப்பட்ட சுதந்திரம் மற்றும் தன்னாட்சி குறைவதற்கும் வழிவகுக்கும்.

இதைத் தடுக்க, AGI மனித குலம் அனைவருக்கும் பயனளிக்கும் வகையில் உருவாக்கப்பட்டு பயன்படுத்தப்படுவதை உறுதி செய்வது முக்கியம். திறந்த மூல AI தளங்களை உருவாக்குவது, பொது ஆராய்ச்சி நிறுவனங்களை நிறுவுவது மற்றும் AI தொடர்பான தொழில்நுட்பங்கள் மற்றும் வளங்களுக்கான சமமான அணுகலை ஊக்குவிக்கும் கொள்கைகளை செயல்படுத்துவது இதில் அடங்கும்.

AI ஐ பயன்படுத்தி சில குழுவினருக்கு எதிராக பாகுபாடு காட்டலாம் என்பது மற்றொரு கவலை. AI அமைப்புகள் தப்பெண்ணம் கொண்ட தரவுகளின் அடிப்படையில் பயிற்றுவிக்கப்பட்டால், அவை அந்த சார்புநிலைகளை நிலைநிறுத்தும் மற்றும் அதிகரிக்கும்.

இதைச் சமாளிக்க, AI அமைப்புகளில் உள்ள சார்புநிலையை அடையாளம் கண்டு தணிப்பதற்கான முறைகளை உருவாக்குவது அவசியம். AI அமைப்புகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுத்தொகுப்புகளை பல்வகைப்படுத்துவது இதில் அடங்கும். நியாயமான மற்றும் சமமான வழிமுறைகளை உருவாக்குவதும் அவசியம். முடிவெடுக்கும் செயல்முறைகளில் AI பயன்பாட்டிற்கான தெளிவான சட்ட மற்றும் நெறிமுறை தரநிலைகளை நிறுவுவதும் இதற்குத் தேவைப்படுகிறது.

மேலும், வேலைவாய்ப்பில் AGI இன் சாத்தியமான தாக்கத்தையும் கருத்தில் கொள்வது முக்கியம். AI அமைப்புகள் மிகவும் திறன் வாய்ந்ததாக மாறும்போது, தற்போது மனிதர்களால் செய்யப்படும் பல வேலைகளை தானியக்கமாக்க முடியும். இது பரவலான வேலைவாய்ப்பின்மை மற்றும் சமூக அமைதியின்மைக்கு வழிவகுக்கும்.

இந்த ஆபத்தை குறைக்க, எதிர்கால வேலைகளுக்கு தொழிலாளர்களை தயார்படுத்தும் கல்வி மற்றும் பயிற்சி திட்டங்களில் முதலீடு செய்வது முக்கியம். AI மேம்பாடு, தரவு பகுப்பாய்வு மற்றும் விமர்சன சிந்தனை போன்ற துறைகளில் திறன்களை வளர்ப்பது இதில் அடங்கும். AI ஆல் இடம்பெயர்ந்துள்ளவர்களுக்கு பொருளாதார பாதுகாப்பை வழங்க உலகளாவிய அடிப்படை வருமானம் போன்ற சமூக பாதுகாப்பு வலைகளின் புதிய வடிவங்களை உருவாக்குவதும் தேவை.

எதிர்கால பாதை: ஒரு கூட்டுப் பொறுப்பு

AGI இன் வளர்ச்சி ஒரு உருமாறும் முயற்சியாகும். ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பொது மக்களின் கூட்டு முயற்சி தேவைப்படும் ஒரு சவாலாகும். ஒத்துழைப்பு உணர்வை ஏற்றுக்கொள்வதன் மூலமும், பாதுகாப்பிற்கு முன்னுரிமை அளிப்பதன் மூலமும், நெறிமுறை கோட்பாடுகளைக் கடைப்பிடிப்பதன் மூலமும் AI இன் மாற்றும் சக்தியை அனைவருக்கும் சிறந்த எதிர்காலத்தை உருவாக்கப் பயன்படுத்தலாம். செயல்பட வேண்டிய நேரம் இது.