OpenAI-ன் முன்னாள் கொள்கை தலைவர் நிறுவனத்தின் AI பாதுகாப்பு கதையாடலை குறிவைக்கிறார்

சமூக ஊடகங்களில் ஒரு பொதுவான கண்டனம்

புதன்கிழமை, OpenAI-ல் முன்னாள் உயர்-நிலை கொள்கை ஆராய்ச்சியாளரான மைல்ஸ் ப்ருண்டேஜ், நிறுவனத்தை பகிரங்கமாக விமர்சித்தார். ஆபத்தானதாக இருக்கக்கூடிய AI அமைப்புகளை வரிசைப்படுத்துவதற்கான அதன் அணுகுமுறையின் ‘வரலாற்றை OpenAI மீண்டும் எழுதுகிறது’ என்று அவர் குற்றம் சாட்டினார். OpenAI-ன் கொள்கை கட்டமைப்பை வடிவமைப்பதில் முன்னர் ஒரு குறிப்பிடத்தக்க பங்கை வகித்த ப்ருண்டேஜ், சமூக ஊடகங்கள் வழியாக தனது கவலைகளை வெளிப்படுத்தினார், இது AI பாதுகாப்பில் நிறுவனத்தின் மாறிவரும் நிலைப்பாடு குறித்த விவாதத்தைத் தூண்டியது.

OpenAI-ன் 'தொடர்ச்சியான வரிசைப்படுத்தல்' தத்துவம்

ப்ருண்டேஜின் விமர்சனம், வாரத்தின் தொடக்கத்தில் OpenAI வெளியிட்ட ஒரு ஆவணத்தைத் தொடர்ந்து வருகிறது. இந்த ஆவணம் AI பாதுகாப்பு மற்றும் ஒருங்கமைப்பு தொடர்பான நிறுவனத்தின் தற்போதைய தத்துவத்தை விவரித்தது. ஒருங்கமைப்பு, இந்த சூழலில், கணிக்கக்கூடிய, விரும்பத்தக்க மற்றும் விளக்கக்கூடிய வழிகளில் செயல்படும் AI அமைப்புகளை வடிவமைக்கும் செயல்முறையைக் குறிக்கிறது.

அந்த ஆவணத்தில், OpenAI செயற்கை பொது நுண்ணறிவின் (AGI) வளர்ச்சியை ஒரு ‘தொடர்ச்சியான பாதை’ என்று வகைப்படுத்தியது. AGI என்பது ஒரு மனிதனால் செய்யக்கூடிய எந்தவொரு அறிவுசார் பணியையும் செய்யக்கூடிய AI அமைப்புகளாக பரவலாக வரையறுக்கப்படுகிறது. இந்த தொடர்ச்சியான பாதைக்கு AI தொழில்நுட்பங்களிலிருந்து ‘தொடர்ச்சியாக வரிசைப்படுத்துதல் மற்றும் கற்றுக்கொள்வது’ அவசியம் என்று OpenAI கூறியது. இது படிப்படியான, படிப்படியான அணுகுமுறையை பரிந்துரைக்கிறது, அங்கு முந்தைய வரிசைப்படுத்தல்களில் இருந்து கற்றுக்கொண்ட பாடங்கள் அடுத்தடுத்தவற்றுக்குத் தெரியப்படுத்துகின்றன.

GPT-2 சர்ச்சை: ஒரு சர்ச்சைக்குரிய புள்ளி

இருப்பினும், ப்ருண்டேஜ் OpenAI-ன் கதையாடலை சவால் செய்கிறார், குறிப்பாக GPT-2 வெளியீடு குறித்து. GPT-2, அதன் வெளியீட்டு நேரத்தில், குறிப்பிடத்தக்க எச்சரிக்கைக்கு உத்தரவாதம் அளித்தது என்று அவர் வலியுறுத்துகிறார். தற்போதைய தொடர்ச்சியான வரிசைப்படுத்தல் மூலோபாயம் கடந்த கால நடைமுறைகளில் இருந்து ஒரு புறப்பாடு என்பதைக் குறிக்கும் கருத்துக்கு இந்த வலியுறுத்தல் நேரடியாக முரணானது.

GPT-2 வெளியீட்டிற்கான OpenAI-ன் எச்சரிக்கையான அணுகுமுறை, உண்மையில், அதன் இன்றைய தொடர்ச்சியான வரிசைப்படுத்தல் மூலோபாயத்துடன் முற்றிலும் ஒத்துப்போகிறது என்று ப்ருண்டேஜ் வாதிடுகிறார். முந்தைய மாதிரிகளுடன் தொடர்புடைய அபாயங்களைக் குறைத்துக்காட்ட நிறுவனம் அதன் வரலாற்றின் தற்போதைய கட்டமைப்பை நாடுகிறது என்று அவர் கூறுகிறார்.

ஆதாரத்தின் மாறும் சுமை பற்றிய கவலைகள்

ப்ருண்டேஜின் விமர்சனத்தின் முக்கிய அம்சம், AI பாதுகாப்பு கவலைகள் தொடர்பான ஆதாரத்தின் சுமையில் ஒரு மாற்றம் என்று அவர் கருதுவதை மையமாகக் கொண்டுள்ளது. சாத்தியமான அபாயங்கள் பற்றிய கவலைகள் ‘அபாயகரமானவை’ என்று முத்திரை குத்தப்படும் ஒரு கட்டமைப்பை நிறுவ OpenAI-ன் ஆவணம் நோக்கமாக உள்ளது என்று அவர் அச்சம் தெரிவிக்கிறார்.

ப்ருண்டேஜின் கூற்றுப்படி, இந்த கட்டமைப்பிற்கு அந்த அபாயங்களைக் குறைக்க எடுக்கப்பட்ட எந்தவொரு நடவடிக்கையையும் நியாயப்படுத்த ‘உடனடி ஆபத்துகளின் மிகப்பெரிய சான்றுகள்’ தேவைப்படும். அத்தகைய மனநிலை மேம்பட்ட AI அமைப்புகளைக் கையாளும் போது ‘மிகவும் ஆபத்தானது’ என்று அவர் வாதிடுகிறார், அங்கு எதிர்பாராத விளைவுகள் குறிப்பிடத்தக்க தாக்கங்களை ஏற்படுத்தக்கூடும்.

'பளபளப்பான தயாரிப்புகளுக்கு' முன்னுரிமை அளித்த குற்றச்சாட்டுகள்

OpenAI கடந்த காலத்தில் பாதுகாப்பு விஷயங்களை விட ‘பளபளப்பான தயாரிப்புகளின்’ வளர்ச்சி மற்றும் வெளியீட்டிற்கு முன்னுரிமை அளித்த குற்றச்சாட்டுகளை எதிர்கொண்டது. நிறுவனம், சில சமயங்களில், வேகமாக வளர்ந்து வரும் AI நிலப்பரப்பில் ஒரு போட்டி விளிம்பைப் பெற தயாரிப்பு வெளியீடுகளை அவசரப்படுத்தியுள்ளது என்று விமர்சகர்கள் கூறியுள்ளனர்.

AGI தயார்நிலை குழுவின் கலைப்பு மற்றும் புறப்பாடுகள்

AGI-ன் சாத்தியமான சமூக தாக்கங்களை மதிப்பிடுவதற்கும் தயாரிப்பதற்கும் குறிப்பாக நியமிக்கப்பட்ட AGI தயார்நிலை குழு கடந்த ஆண்டு கலைக்கப்பட்டது, OpenAI-ன் பாதுகாப்புக்கான அர்ப்பணிப்பு பற்றிய கவலைகளை மேலும் தூண்டியது.

கூடுதலாக, பல AI பாதுகாப்பு மற்றும் கொள்கை ஆராய்ச்சியாளர்கள் OpenAI-லிருந்து வெளியேறியுள்ளனர், அவர்களில் பலர் பின்னர் போட்டி நிறுவனங்களில் சேர்ந்துள்ளனர். இந்த புறப்பாடுகள் OpenAI-க்குள் உள் கலாச்சாரம் மற்றும் முன்னுரிமைகள் பற்றிய கேள்விகளை எழுப்பியுள்ளன.

அதிகரிக்கும் போட்டி அழுத்தங்கள்

AI துறையில் போட்டி நிலப்பரப்பு சமீப காலங்களில் கணிசமாக தீவிரமடைந்துள்ளது. உதாரணமாக, சீன AI ஆய்வகமான DeepSeek, அதன் வெளிப்படையாக கிடைக்கக்கூடிய R1 மாதிரியுடன் உலகளாவிய கவனத்தை ஈர்த்தது. இந்த மாதிரி பல முக்கிய அளவுகோல்களில் OpenAI-ன் o1 ‘ரீசனிங்’ மாதிரியுடன் ஒப்பிடக்கூடிய செயல்திறனை நிரூபித்தது.

DeepSeek-ன் முன்னேற்றங்கள் OpenAI-ன் தொழில்நுட்ப முன்னணியைக் குறைத்துள்ளன என்பதை OpenAI-ன் CEO சாம் ஆல்ட்மேன் பகிரங்கமாக ஒப்புக்கொண்டுள்ளார். ஆல்ட்மேன் OpenAI அதன் போட்டி நிலையை மேம்படுத்த சில தயாரிப்பு வெளியீடுகளை துரிதப்படுத்தும் என்றும் சுட்டிக்காட்டியுள்ளார்.

நிதி பங்குகள்

OpenAI மீதான நிதி அழுத்தங்கள் கணிசமானவை. நிறுவனம் தற்போது ஒரு குறிப்பிடத்தக்க இழப்பில் இயங்குகிறது, ஆண்டுக்கு பில்லியன் கணக்கான டாலர்கள் பற்றாக்குறையுடன். இந்த இழப்புகள் 2026-க்குள் 14 பில்லியன் டாலர்களாக மூன்று மடங்காக அதிகரிக்கும் என்று கணிப்புகள் தெரிவிக்கின்றன.

ஒரு வேகமான தயாரிப்பு வெளியீட்டு சுழற்சி குறுகிய காலத்தில் OpenAI-ன் நிதி கண்ணோட்டத்தை மேம்படுத்தக்கூடும். இருப்பினும், ப்ருண்டேஜ் போன்ற வல்லுநர்கள், இந்த துரிதப்படுத்தப்பட்ட வேகம் நீண்ட கால பாதுகாப்பு விஷயங்களுக்கு இழப்பாக வருகிறதா என்று கேள்வி எழுப்புகின்றனர். விரைவான கண்டுபிடிப்பு மற்றும் பொறுப்பான வளர்ச்சிக்கு இடையிலான வர்த்தகம் விவாதத்தின் மைய புள்ளியாக உள்ளது.

தொடர்ச்சியான வரிசைப்படுத்தல் விவாதத்தில் ஒரு ஆழமான பார்வை

‘தொடர்ச்சியான வரிசைப்படுத்தல்’ என்ற கருத்து AI பாதுகாப்பைச் சுற்றியுள்ள தற்போதைய விவாதத்திற்கு மையமானது. ஆதரவாளர்கள் இது உண்மையான உலக சோதனை மற்றும் கற்றலுக்கு அனுமதிக்கிறது என்று வாதிடுகின்றனர், இது டெவலப்பர்கள் சாத்தியமான சிக்கல்களை எழும்போது அடையாளம் கண்டு தீர்க்க உதவுகிறது. இந்த அணுகுமுறை வரிசைப்படுத்தலுக்கு முந்தைய விரிவான சோதனை மற்றும் பகுப்பாய்வின் மிகவும் எச்சரிக்கையான மூலோபாயத்துடன் முரண்படுகிறது.

இருப்பினும், தொடர்ச்சியான வரிசைப்படுத்தலின் விமர்சகர்கள் எதிர்பாராத விளைவுகளுக்கான சாத்தியக்கூறுகள் குறித்து கவலைகளை எழுப்புகின்றனர். AI அமைப்புகளை முழுமையாகப் புரிந்துகொள்வதற்கு முன்பு அவற்றை வெளியில் வெளியிடுவது திட்டமிடப்படாத மற்றும் தீங்கு விளைவிக்கும் விளைவுகளுக்கு வழிவகுக்கும் என்று அவர்கள் வாதிடுகின்றனர். உண்மையான உலக கற்றலின் நன்மைகள் மற்றும் கணிக்க முடியாத தொழில்நுட்பங்களை வரிசைப்படுத்துவதில் உள்ள அபாயங்களுக்கு இடையில் சமநிலையை ஏற்படுத்துவதில் சவால் உள்ளது.

வெளிப்படைத்தன்மை மற்றும் திறந்த தன்மையின் பங்கு

விவாதத்தின் மற்றொரு முக்கிய அம்சம் வெளிப்படைத்தன்மை மற்றும் திறந்த தன்மையைச் சுற்றி வருகிறது. AI வளர்ச்சி மற்றும் வரிசைப்படுத்தல் தொடர்பான அதிக வெளிப்படைத்தன்மை பொது நம்பிக்கையை வளர்ப்பதற்கும் பொறுப்புக்கூறலை உறுதி செய்வதற்கும் அவசியம் என்று சிலர் வாதிடுகின்றனர். இதில் AI அமைப்புகளின் சாத்தியமான அபாயங்கள் மற்றும் வரம்புகள் பற்றிய தகவல்களைப் பகிர்வதும் அடங்கும்.

இருப்பினும், அதிகப்படியான வெளிப்படைத்தன்மை தீங்கிழைக்கும் நடிகர்களால் சுரண்டப்படலாம், இது AI தொழில்நுட்பங்களை தவறாகப் பயன்படுத்த வழிவகுக்கும் என்று மற்றவர்கள் வாதிடுகின்றனர். வெளிப்படைத்தன்மை மற்றும் பாதுகாப்பிற்கு இடையில் சரியான சமநிலையைக் கண்டறிவது ஒரு சிக்கலான சவாலாக உள்ளது.

வலுவான ஆளுகை கட்டமைப்புகளின் தேவை

AI அமைப்புகள் பெருகிய முறையில் அதிநவீனமாகி, சமூகத்தின் பல்வேறு அம்சங்களில் ஒருங்கிணைக்கப்படுவதால், வலுவான ஆளுகை கட்டமைப்புகளின் தேவை மேலும் முக்கியமானதாகிறது. இந்த கட்டமைப்புகள் பாதுகாப்பு, பொறுப்புக்கூறல், வெளிப்படைத்தன்மை மற்றும் நெறிமுறை பரிசீலனைகள் போன்ற சிக்கல்களை நிவர்த்தி செய்ய வேண்டும்.

பயனுள்ள ஆளுகை வழிமுறைகளை உருவாக்குவதற்கு ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள், தொழில் பங்குதாரர்கள் மற்றும் பொதுமக்களுக்கு இடையே ஒத்துழைப்பு தேவைப்படுகிறது. சாத்தியமான அபாயங்களைக் குறைக்கும் அதே வேளையில் கண்டுபிடிப்புகளை வளர்க்கும் மற்றும் AI ஒட்டுமொத்த சமூகத்திற்கும் பயனளிப்பதை உறுதி செய்யும் ஒரு கட்டமைப்பை உருவாக்குவதே இதன் குறிக்கோள்.

AI-ன் எதிர்காலத்திற்கான பரந்த தாக்கங்கள்

AI பாதுகாப்பிற்கான OpenAI-ன் அணுகுமுறையைச் சுற்றியுள்ள விவாதம் AI வளர்ச்சியின் எதிர்காலம் பற்றிய பரந்த கவலைகளை பிரதிபலிக்கிறது. AI அமைப்புகள் முன்னோடியில்லாத வேகத்தில் தொடர்ந்து முன்னேறும்போது, சமூகத்தில் அவற்றின் சாத்தியமான தாக்கம் பற்றிய கேள்விகள் பெருகிய முறையில் அவசரமாகின்றன.

AI-ன் வளர்ச்சி மற்றும் வரிசைப்படுத்தலுடன் தொடர்புடைய அபாயங்களைக் குறைக்கும் அதே வேளையில் அதன் மாற்றும் திறனைப் பயன்படுத்துவதில் சவால் உள்ளது. இதற்கு தொழில்நுட்ப ஆராய்ச்சி, கொள்கை மேம்பாடு, நெறிமுறை பரிசீலனைகள் மற்றும் பொது ஈடுபாடு ஆகியவற்றை உள்ளடக்கிய ஒரு பன்முக அணுகுமுறை தேவைப்படுகிறது. AI-ன் எதிர்காலம் இன்று நாம் எடுக்கும் தேர்வுகளைப் பொறுத்தது.

தொடர்ச்சியான விவாதம் AI துறையில் விமர்சன ஆய்வு மற்றும் வெளிப்படையான உரையாடலின் முக்கியத்துவத்தை நினைவூட்டுகிறது. AI தொழில்நுட்பங்கள் தொடர்ந்து வளர்ச்சியடைந்து வருவதால், அவற்றின் சாத்தியமான தாக்கங்கள் குறித்து தொடர்ந்து உரையாடல்களை நடத்துவதும், அவற்றின் வளர்ச்சி மனித விழுமியங்கள் மற்றும் சமூக நல்வாழ்வுடன் ஒத்துப்போவதை உறுதி செய்வதும் முக்கியம்.