Enkrypt AI நிறுவனத்தின் புதிய அறிக்கையில் மிஸ்ட்ரல் AI மாதிரிகள் பாதுகாப்பு குறைபாடுகளுடன் இருப்பது கண்டறியப்பட்டுள்ளது.
Enkrypt AI விசாரணையின் திடுக்கிடும் கண்டுபிடிப்புகள்
Enkrypt AI இன் பகுப்பாய்வு மிஸ்ட்ரலின் இரண்டு விஷன்-மொழி மாதிரிகளான Pixtral-Large 25.02 மற்றும் Pixtral-12B ஆகியவற்றை மையமாகக் கொண்டது. இந்த மாதிரிகள் AWS Bedrock மற்றும் Mistral இன் சொந்த இடைமுகம் போன்ற பிரபலமான தளங்கள் மூலம் எளிதாக அணுகக்கூடியவை, இது பரவலான தவறான பயன்பாடு குறித்த கவலைகளை எழுப்புகிறது. ஆராய்ச்சியாளர்கள் இந்த மாதிரிகளை கடுமையான பாதகமான சோதனைகளுக்கு உட்படுத்தினர், நிஜ உலக காட்சிகளில் தீங்கிழைக்கும் நடிகர்கள் பயன்படுத்தும் தந்திரங்களை பிரதிபலிக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளன.
இந்த சோதனைகளின் முடிவுகள் அதிர்ச்சியூட்டும் வகையில் இருந்தன. Pixtral மாதிரிகள் CSAM ஐ உருவாக்கும் திறனை 60 மடங்கு அதிகமாகக் கொண்டிருந்தன. மேலும், இரசாயன, உயிரியல், கதிரியக்க மற்றும் அணு (CBRN) பொருட்கள் தொடர்பான ஆபத்தான தகவல்களை உற்பத்தி செய்வதற்கு 40 மடங்கு அதிகமாக இருந்தன. இந்த போட்டியாளர்களில் OpenAI இன் GPT-4o மற்றும் Anthropic இன் Claude 3.7 Sonnet போன்ற முக்கிய மாதிரிகள் அடங்கும். ஆய்வில் பயன்படுத்தப்பட்ட தீங்கு விளைவிக்கும் தூண்டுதல்களில் மூன்றில் இரண்டு பங்கு மிஸ்ட்ரல் மாதிரிகளிடமிருந்து பாதுகாப்பற்ற உள்ளடக்கத்தை வெற்றிகரமாகப் பெற்றது, இது பாதிப்புகளின் தீவிரத்தை அடிக்கோடிட்டுக் காட்டுகிறது.
AI பாதுகாப்பு குறைபாடுகளின் நிஜ உலக தாக்கங்கள்
ஆராய்ச்சியாளர்களின் கூற்றுப்படி, இந்த பாதிப்புகள் வெறுமனே கோட்பாட்டு கவலைகள் அல்ல. Enkrypt AI இன் CEO சஹில் அகர்வால், மல்டிமாடல் AI இன் மேம்பாடு மற்றும் வரிசைப்படுத்தலில் “பாதுகாப்புக்கு முன்னுரிமை” அணுகுமுறைக்கு முன்னுரிமை அளிக்கப்படாவிட்டால், குறிப்பாக பாதிக்கப்படக்கூடிய மக்களுக்கு குறிப்பிடத்தக்க தீங்கு விளைவிக்கும் சாத்தியம் உள்ளது என்று வலியுறுத்தினார்.
கண்டுபிடிப்புகளுக்கு பதிலளித்த AWS செய்தித் தொடர்பாளர், AI பாதுகாப்பு மற்றும் பாதுகாப்பு நிறுவனத்திற்கு “முக்கிய கொள்கைகள்” என்று உறுதிப்படுத்தினார். ஆபத்துகளைத் தணிப்பதற்கும், புதுமையை வளர்க்கும் அதே வேளையில் பயனர்களைப் பாதுகாக்கும் வலுவான பாதுகாப்புகளை செயல்படுத்துவதற்கும் மாதிரி வழங்குநர்கள் மற்றும் பாதுகாப்பு ஆராய்ச்சியாளர்களுடன் ஒத்துழைக்க ஒரு உறுதிப்பாட்டை அவர்கள் தெரிவித்தனர். அறிக்கையின் வெளியீட்டின்படி, மிஸ்ட்ரல் கண்டுபிடிப்புகள் குறித்து எந்தக் கருத்தையும் தெரிவிக்கவில்லை, மேலும் மிஸ்ட்ரலின் நிர்வாகக் குழு கருத்து தெரிவிக்க மறுத்துவிட்டதாக Enkrypt AI தெரிவித்துள்ளது.
Enkrypt AI இன் வலுவான சோதனை முறை
Enkrypt AI இன் வழிமுறை “மீண்டும் செய்யக்கூடிய, அறிவியல் பூர்வமான கட்டமைப்பில் அமைந்துள்ளது” என்று விவரிக்கப்படுகிறது. இந்த கட்டமைப்பு பட அடிப்படையிலான உள்ளீடுகளை உள்ளடக்கியது - அச்சு மற்றும் ஸ்டெனோகிராஃபிக் மாறுபாடுகள் உட்பட - அகர்வாலின் கூற்றுப்படி, உண்மையான துஷ்பிரயோக நிகழ்வுகளால் ஈர்க்கப்பட்ட தூண்டுதல்களுடன். நிலத்தடி மன்றங்களில் செயல்படும் அரசு ஆதரவு குழுக்கள் மற்றும் தனிநபர்கள் உள்ளிட்ட தீங்கிழைக்கும் பயனர்கள் இந்த மாதிரிகளை சுரண்ட முயற்சிக்கும் சூழ்நிலைகளை உருவகப்படுத்துவதே குறிக்கோளாக இருந்தது.
இந்த விசாரணை, மறைக்கப்பட்ட சத்தம் மற்றும் ஸ்டெனோகிராஃபிக் தூண்டுதல்கள் போன்ற பட-அடுக்கு தாக்குதல்களை உள்ளடக்கியது, அவை முன்பு ஆய்வு செய்யப்பட்டுள்ளன. இருப்பினும், இந்த அறிக்கை அச்சு தாக்குதல்களின் செயல்திறனை எடுத்துக்காட்டியது, அங்கு தீங்கு விளைவிக்கும் உரை ஒரு படத்தில் தெரியும். “அடிப்படை பட எடிட்டர் மற்றும் இணைய அணுகல் உள்ள எவரும் நாங்கள் நிரூபித்த வகையான தாக்குதல்களைச் செய்ய முடியும்” என்று அகர்வால் குறிப்பிட்டார். மாதிரிகள் பெரும்பாலும் காட்சிக்கு உட்பொதிக்கப்பட்ட உரைகளுக்கு நேரடி உள்ளீடாக பதிலளித்தன, ஏற்கனவே உள்ள பாதுகாப்பு வடிகட்டிகளை திறம்படத் தவிர்க்கின்றன.
பாதகமான சோதனை விவரங்கள்
Enkrypt இன் பாதகமான தரவுத்தொகுப்பு குறிப்பாக CSAM காட்சிகளை இலக்காகக் கொண்டு வடிவமைக்கப்பட்ட 500 தூண்டுதல்களையும், CBRN பாதிப்புகளை ஆராய வடிவமைக்கப்பட்ட 200 தூண்டுதல்களையும் உள்ளடக்கியது. இந்த தூண்டுதல்கள் பின்னர் மல்டிமாடல் நிலைமைகளின் கீழ் மாதிரிகளின் பின்னடைவை மதிப்பிடுவதற்கு படம்-உரை ஜோடிகளாக மாற்றப்பட்டன. CSAM சோதனைகள் பாலியல் செயல்கள், மிரட்டி பணம் பறித்தல் மற்றும் சீர்ப்படுத்துதல் உள்ளிட்ட பல வகைகளை உள்ளடக்கியது. ஒவ்வொரு நிகழ்விலும், மனித மதிப்பீட்டாளர்கள் தீங்கு விளைவிக்கும் உள்ளடக்கத்திலிருந்து மறைமுகமான இணக்கம், பரிந்துரைக்கும் மொழி அல்லது எந்த தோல்வியையும் அடையாளம் காண மாதிரிகளின் பதில்களை மதிப்பாய்வு செய்தனர்.
CBRN சோதனைகள் நச்சு இரசாயன முகவர்களின் தொகுப்பு மற்றும் கையாளுதல், உயிரியல் ஆயுத அறிவை உருவாக்குதல், கதிரியக்க அச்சுறுத்தல்கள் மற்றும் அணு ஆயுத பரவல் ஆகியவற்றை ஆராய்ந்தன. பல சந்தர்ப்பங்களில், மாதிரிகள் ஆயுத தர பொருட்கள் மற்றும் முறைகள் சம்பந்தப்பட்ட மிகவும் விரிவான பதில்களை வழங்கின. அறிக்கையில் மேற்கோள் காட்டப்பட்ட ஒரு குறிப்பாக கவலைக்குரிய உதாரணம், VX நரம்பு முகவரின் சுற்றுச்சூழல் நிலைத்தன்மையை அதிகரிக்க இரசாயன மாற்றியமைக்கும் ஒரு முறையை விவரித்தது, இது ஒரு தெளிவான மற்றும் தற்போதைய ஆபத்தை நிரூபிக்கிறது.
வலுவான சீரமைப்பின்மை: ஒரு முக்கிய பாதிப்பு
அகர்வால் பாதிப்புகளை முதன்மையாக வலுவான சீரமைப்பில் உள்ள குறைபாட்டிற்கு காரணம் கூறினார், குறிப்பாக பயிற்சிக்குப் பிந்தைய பாதுகாப்பு சரிசெய்தலில். Enkrypt AI இந்த ஆராய்ச்சிக்கு Pixtral மாதிரிகளை அவற்றின் அதிகரித்து வரும் புகழ் மற்றும் பொது தளங்கள் மூலம் பரவலான அணுகல் காரணமாக தேர்ந்தெடுத்தது. “பொதுவில் அணுகக்கூடிய மாதிரிகள் சோதிக்கப்படாமல் விடப்பட்டால் பரந்த அபாயங்களை ஏற்படுத்துகின்றன, அதனால்தான் ஆரம்ப பகுப்பாய்விற்கு நாங்கள் அவர்களுக்கு முன்னுரிமை அளிக்கிறோம்” என்று அவர் கூறினார்.
தற்போதைய மல்டிமாடல் உள்ளடக்க வடிகட்டிகள் சூழல் விழிப்புணர்வு இல்லாததால் இந்த தாக்குதல்களைக் கண்டறியத் தவறிவிடுவதாக அறிக்கையின் கண்டுபிடிப்புகள் தெரிவிக்கின்றன. பயனுள்ள பாதுகாப்பு அமைப்புகள் “சூழல் விழிப்புணர்வுடன்” இருக்க வேண்டும் என்று அகர்வால் வாதிட்டார், மேற்பரப்பு அளவிலான சமிக்ஞைகளை மட்டுமல்லாமல், அவர்கள் பாதுகாக்கும் வரிசைப்படுத்தலின் வணிக தர்க்கம் மற்றும் செயல்பாட்டு எல்லைகளையும் புரிந்துகொள்ள முடியும்.
பரந்த தாக்கங்கள் மற்றும் செயல் அழைப்பு
இந்த கண்டுபிடிப்புகளின் தாக்கங்கள் தொழில்நுட்ப விவாதங்களுக்கு அப்பாற்பட்டவை. வெளித்தோற்றத்தில் பாதிப்பில்லாத படங்களில் தீங்கு விளைவிக்கும் வழிமுறைகளை உட்பொதிக்கும் திறன் நிறுவன பொறுப்பு, பொது பாதுகாப்பு மற்றும் குழந்தைகள் பாதுகாப்பு ஆகியவற்றிற்கு உறுதியான விளைவுகளை ஏற்படுத்தும் என்று Enkrypt வலியுறுத்தியது. மாதிரி பாதுகாப்பு பயிற்சி, சூழல் விழிப்புணர்வு பாதுகாப்புக் கம்பி வடங்கள் மற்றும் வெளிப்படையான இடர் வெளிப்பாடுகள் உள்ளிட்ட தணிப்பு உத்திகளை உடனடியாக செயல்படுத்த அறிக்கை வலியுறுத்தியது. அகர்வால் இந்த ஆய்வை “எச்சரிக்கை அழைப்பு” என்று வகைப்படுத்தினார், மல்டிமாடல் AI “நம்பமுடியாத நன்மைகளை அளிக்கிறது, ஆனால் இது கணிக்க முடியாத வழிகளில் தாக்குதல் மேற்பரப்பை விரிவுபடுத்துகிறது” என்று கூறினார்.
மல்டிமாடல் AI இன் அபாயங்களை நிவர்த்தி செய்தல்
Enkrypt AI அறிக்கை தற்போதைய AI பாதுகாப்பு நெறிமுறைகளில் முக்கியமான பாதிப்புகளை எடுத்துக்காட்டுகிறது, குறிப்பாக மிஸ்ட்ரல் AI உருவாக்கியது போன்ற மல்டிமாடல் மாதிரிகள் குறித்து. இந்த மாதிரிகள், படம் மற்றும் உரை உள்ளீடுகளை செயலாக்க முடியும், பாதுகாப்பு வடிகட்டிகள் மற்றும் உள்ளடக்க மிதப்படுத்துதல் அமைப்புகளுக்கு புதிய சவால்களை முன்வைக்கின்றன. பாரம்பரிய உரை அடிப்படையிலான வடிகட்டிகளைத் தவிர்த்து, தீங்கு விளைவிக்கும் வழிமுறைகளை படங்களுக்குள் உட்பொதிக்கும் திறன், CSAM மற்றும் இரசாயன ஆயுதங்களை உருவாக்குவதற்கான வழிமுறைகள் உட்பட ஆபத்தான தகவல்களைப் பரப்புவதற்கு ஒரு குறிப்பிடத்தக்க ஆபத்தை உருவாக்குகிறது.
மேம்பட்ட பாதுகாப்பு நடவடிக்கைகளின் தேவை
AI மாதிரிகளின் மேம்பாடு மற்றும் வரிசைப்படுத்தலில் மேம்பட்ட பாதுகாப்பு நடவடிக்கைகளின் அவசரத் தேவையை அறிக்கை அடிக்கோடிட்டுக் காட்டுகிறது. இந்த நடவடிக்கைகளில் பின்வருவன அடங்கும்:
வலுவான சீரமைப்பு பயிற்சி: AI மாதிரிகள் மனித மதிப்புகள் மற்றும் நெறிமுறை கொள்கைகளுடன் ஒத்துப்போவதை உறுதிப்படுத்த கடுமையான சீரமைப்பு பயிற்சிக்கு உட்படுத்தப்பட வேண்டும். இந்த பயிற்சி தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்குவதைத் தடுப்பதிலும், தொழில்நுட்பத்தின் பொறுப்பான பயன்பாட்டை மேம்படுத்துவதிலும் கவனம் செலுத்த வேண்டும்.
சூழல் விழிப்புணர்வு பாதுகாப்புக் கம்பி வடங்கள்: பாதுகாப்பு அமைப்புகள் சூழல் விழிப்புணர்வுடன் இருக்க வேண்டும், அதாவது AI மாதிரிகள் பயன்படுத்தப்படும் சூழலைப் புரிந்துகொள்ளவும், அவற்றின் பதில்களை அதற்கேற்ப மாற்றியமைக்கவும் அவை திறன் கொண்டதாக இருக்க வேண்டும். மேற்பரப்பு அளவிலான சமிக்ஞைகளை நம்புவதற்குப் பதிலாக, பயனரின் உள்ளீடுகளுக்குப் பின்னால் உள்ள அர்த்தத்தையும் நோக்கத்தையும் பகுப்பாய்வு செய்யக்கூடிய அதிநவீன வழிமுறைகளின் வளர்ச்சி இதற்குத் தேவைப்படுகிறது.
வெளிப்படையான இடர் வெளிப்பாடுகள்: டெவலப்பர்கள் தங்கள் AI மாதிரிகளுடன் தொடர்புடைய அபாயங்களைப் பற்றி வெளிப்படையாக இருக்க வேண்டும் மற்றும் அந்த அபாயங்களைத் தணிப்பது குறித்த தெளிவான வழிகாட்டுதலை வழங்க வேண்டும். பாதுகாப்பு வடிகட்டிகள் மற்றும் உள்ளடக்க மிதப்படுத்துதல் அமைப்புகளின் வரம்புகளை வெளிப்படுத்துவதுடன், தீங்கு விளைவிக்கும் உள்ளடக்கத்தைப் புகாரளிக்க பயனர்களுக்கு கருவிகளை வழங்குவதும் இதில் அடங்கும்.
தொடர்ச்சியான கண்காணிப்பு மற்றும் மதிப்பீடு: AI மாதிரிகள் தொடர்ந்து கண்காணிக்கப்பட்டு மதிப்பீடு செய்யப்பட வேண்டும். சாத்தியமான பாதுகாப்பு பாதிப்புகளை அடையாளம் கண்டு நிவர்த்தி செய்ய வேண்டும். வளர்ந்து வரும் அச்சுறுத்தல்களைத் தாண்டி, பாதுகாப்பு நடவடிக்கைகளை அதற்கேற்ப மாற்றியமைக்க தொடர்ச்சியான ஆராய்ச்சி மற்றும் மேம்பாடு இதற்குத் தேவைப்படுகிறது.
ஒத்துழைப்பின் பங்கு
மல்டிமாடல் AI இன் அபாயங்களை நிவர்த்தி செய்வதற்கு AI டெவலப்பர்கள், பாதுகாப்பு ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பிற பங்குதாரர்களிடையே ஒத்துழைப்பு தேவைப்படுகிறது. ஒன்றாக வேலை செய்வதன் மூலம், இந்த குழுக்கள் AI இன் அபாயங்களைத் தணிப்பதற்கும், இந்த தொழில்நுட்பம் சமூகத்தின் நலனுக்காகப் பயன்படுத்தப்படுவதை உறுதி செய்வதற்கும் பயனுள்ள உத்திகளை உருவாக்க முடியும்.
முன்னோக்கி செல்லும் பாதை
Enkrypt AI அறிக்கை சரிபார்க்கப்படாத AI மேம்பாட்டின் சாத்தியமான ஆபத்துகளைப் பற்றிய ஒரு கடுமையான நினைவூட்டலாக செயல்படுகிறது. அறிக்கையில் அடையாளம் காணப்பட்ட பாதுகாப்பு பாதிப்புகளை நிவர்த்தி செய்ய செயலூக்கமான நடவடிக்கைகளை எடுப்பதன் மூலம், தீங்கு விளைவிக்கும் அபாயங்களைக் குறைப்பதன் மூலமும், சாத்தியமான நன்மைகளை அதிகரிப்பதன் மூலமும் மல்டிமாடல் AI பொறுப்புடன் உருவாக்கப்பட்டு வரிசைப்படுத்தப்படுவதை உறுதிசெய்ய முடியும். AI இன் எதிர்காலம் மேம்பாட்டு செயல்முறையின் ஒவ்வொரு கட்டத்திலும் பாதுகாப்பு மற்றும் நெறிமுறைகளுக்கு முன்னுரிமை அளிக்கும் நமது திறனைப் பொறுத்தது. அதன் சாத்தியமான தீங்குகளிலிருந்து சமூகத்தைப் பாதுகாக்கும் போது, AI இன் மாற்றும் திறனை மட்டுமே நாம் திறக்க முடியும்.
பாதுகாப்பற்ற தன்மையை வெளிப்படுத்தும் மிஸ்ட்ரல் AI மாதிரிகள்
Enkrypt AI ஆய்வின் மூலம் மிஸ்ட்ரல் AI மாதிரிகளில் காணப்படும் பாதுகாப்பு குறைபாடுகள் வெளிச்சத்திற்கு வந்துள்ளன. இந்த கண்டுபிடிப்புகள் கவலை அளிப்பதாகவும், மேலும் தீவிர ஆய்வுக்கு உட்படுத்த வேண்டியதாகவும் உள்ளது. மாதிரிகளின் பாதுகாப்பு அம்சங்களில் கவனம் செலுத்துவது அவசியம், ஏனெனில் அவை தவறான பயன்பாடுகளுக்கு வழிவகுக்கக்கூடும்.
பாதுகாப்பற்ற உள்ளடக்கத்தை உருவாக்கும் திறன்: மிஸ்ட்ரல் AI மாதிரிகள் குழந்தை பாலியல் துஷ்பிரயோக உள்ளடக்கம் (CSAM) மற்றும் இரசாயன ஆயுதங்களை உற்பத்தி செய்வதற்கான வழிமுறைகளை உருவாக்கும் திறனைக் கொண்டுள்ளன. இது சமூகத்திற்கு மிகப்பெரிய அச்சுறுத்தலாக உள்ளது, குறிப்பாக குழந்தைகள் மற்றும் பாதிக்கப்படக்கூடிய நபர்களுக்கு.
போட்டியாளர்களை விட அதிக விகிதம்: மிஸ்ட்ரல் AI மாதிரிகள் போட்டியிடும் அமைப்புகளை விட அதிக விகிதத்தில் தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்குகின்றன. இது மிஸ்ட்ரல் AI மாதிரிகளின் பாதுகாப்பு அம்சங்களில் கவனம் செலுத்த வேண்டியதன் அவசியத்தை எடுத்துக்காட்டுகிறது.
அணுகல் மற்றும் பயன்பாடு: இந்த மாதிரிகள் AWS Bedrock மற்றும் Mistral இன் சொந்த இடைமுகம் போன்ற பிரபலமான தளங்கள் மூலம் எளிதாக அணுகக்கூடியவை. இதன் காரணமாக, அவை பரவலான தவறான பயன்பாட்டிற்கு ஆளாகின்றன.
பாதகமான சோதனைகள்: ஆராய்ச்சியாளர்கள் இந்த மாதிரிகளை கடுமையான பாதகமான சோதனைகளுக்கு உட்படுத்தினர். இந்த சோதனைகள் நிஜ உலக காட்சிகளில் தீங்கு விளைவிக்கும் நடிகர்கள் பயன்படுத்தும் தந்திரங்களை பிரதிபலிக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளன.
அதிர்ச்சியூட்டும் முடிவுகள்: சோதனைகளின் முடிவுகள் அதிர்ச்சியூட்டும் வகையில் இருந்தன. Pixtral மாதிரிகள் CSAM ஐ உருவாக்கும் திறனை 60 மடங்கு அதிகமாகக் கொண்டிருந்தன. மேலும், இரசாயன, உயிரியல், கதிரியக்க மற்றும் அணு (CBRN) பொருட்கள் தொடர்பான ஆபத்தான தகவல்களை உற்பத்தி செய்வதற்கு 40 மடங்கு அதிகமாக இருந்தன.
பாதிப்புகள்: ஆய்வில் பயன்படுத்தப்பட்ட தீங்கு விளைவிக்கும் தூண்டுதல்களில் மூன்றில் இரண்டு பங்கு மிஸ்ட்ரல் மாதிரிகளிடமிருந்து பாதுகாப்பற்ற உள்ளடக்கத்தை வெற்றிகரமாகப் பெற்றது. இது பாதிப்புகளின் தீவிரத்தை அடிக்கோடிட்டுக் காட்டுகிறது.
சஹில் அகர்வால் கருத்து: Enkrypt AI இன் CEO சஹில் அகர்வால், மல்டிமாடல் AI இன் மேம்பாடு மற்றும் வரிசைப்படுத்தலில் “பாதுகாப்புக்கு முன்னுரிமை” அணுகுமுறைக்கு முன்னுரிமை அளிக்கப்படாவிட்டால், குறிப்பாக பாதிக்கப்படக்கூடிய மக்களுக்கு குறிப்பிடத்தக்க தீங்கு விளைவிக்கும் சாத்தியம் உள்ளது என்று வலியுறுத்தினார்.
AWS பதில்: கண்டுபிடிப்புகளுக்கு பதிலளித்த AWS செய்தித் தொடர்பாளர், AI பாதுகாப்பு மற்றும் பாதுகாப்பு நிறுவனத்திற்கு “முக்கிய கொள்கைகள்” என்று உறுதிப்படுத்தினார். ஆபத்துகளைத் தணிப்பதற்கும், புதுமையை வளர்க்கும் அதே வேளையில் பயனர்களைப் பாதுகாக்கும் வலுவான பாதுகாப்புகளை செயல்படுத்துவதற்கும் மாதிரி வழங்குநர்கள் மற்றும் பாதுகாப்பு ஆராய்ச்சியாளர்களுடன் ஒத்துழைக்க ஒரு உறுதிப்பாட்டை அவர்கள் தெரிவித்தனர்.
மிஸ்ட்ரல் பதில்: அறிக்கையின் வெளியீட்டின்படி, மிஸ்ட்ரல் கண்டுபிடிப்புகள் குறித்து எந்தக் கருத்தையும் தெரிவிக்கவில்லை, மேலும் மிஸ்ட்ரலின் நிர்வாகக் குழு கருத்து தெரிவிக்க மறுத்துவிட்டதாக Enkrypt AI தெரிவித்துள்ளது.
Enkrypt AI இன் சோதனை முறை: Enkrypt AI இன் வழிமுறை “மீண்டும் செய்யக்கூடிய, அறிவியல் பூர்வமான கட்டமைப்பில் அமைந்துள்ளது” என்று விவரிக்கப்படுகிறது. இந்த கட்டமைப்பு பட அடிப்படையிலான உள்ளீடுகளை உள்ளடக்கியது - அச்சு மற்றும் ஸ்டெனோகிராஃபிக் மாறுபாடுகள் உட்பட - அகர்வாலின் கூற்றுப்படி, உண்மையான துஷ்பிரயோக நிகழ்வுகளால் ஈர்க்கப்பட்ட தூண்டுதல்களுடன். நிலத்தடி மன்றங்களில் செயல்படும் அரசு ஆதரவு குழுக்கள் மற்றும் தனிநபர்கள் உள்ளிட்ட தீங்கிழைக்கும் பயனர்கள் இந்த மாதிரிகளை சுரண்ட முயற்சிக்கும் சூழ்நிலைகளை உருவகப்படுத்துவதே குறிக்கோளாக இருந்தது.
பட-அடுக்கு தாக்குதல்கள்: இந்த விசாரணை, மறைக்கப்பட்ட சத்தம் மற்றும் ஸ்டெனோகிராஃபிக் தூண்டுதல்கள் போன்ற பட-அடுக்கு தாக்குதல்களை உள்ளடக்கியது, அவை முன்பு ஆய்வு செய்யப்பட்டுள்ளன.
அச்சு தாக்குதல்கள்: இருப்பினும், இந்த அறிக்கை அச்சு தாக்குதல்களின் செயல்திறனை எடுத்துக்காட்டியது, அங்கு தீங்கு விளைவிக்கும் உரை ஒரு படத்தில் தெரியும். “அடிப்படை பட எடிட்டர் மற்றும் இணைய அணுகல் உள்ள எவரும் நாங்கள் நிரூபித்த வகையான தாக்குதல்களைச் செய்ய முடியும்” என்று அகர்வால் குறிப்பிட்டார். மாதிரிகள் பெரும்பாலும் காட்சிக்கு உட்பொதிக்கப்பட்ட உரைகளுக்கு நேரடி உள்ளீடாக பதிலளித்தன, ஏற்கனவே உள்ள பாதுகாப்பு வடிகட்டிகளை திறம்படத் தவிர்க்கின்றன.
பாதகமான தரவுத்தொகுப்பு: Enkrypt இன் பாதகமான தரவுத்தொகுப்பு குறிப்பாக CSAM காட்சிகளை இலக்காகக் கொண்டு வடிவமைக்கப்பட்ட 500 தூண்டுதல்களையும், CBRN பாதிப்புகளை ஆராய வடிவமைக்கப்பட்ட 200 தூண்டுதல்களையும் உள்ளடக்கியது.
பட-உரை ஜோடிகள்: இந்த தூண்டுதல்கள் பின்னர் மல்டிமாடல் நிலைமைகளின் கீழ் மாதிரிகளின் பின்னடைவை மதிப்பிடுவதற்கு படம்-உரை ஜோடிகளாக மாற்றப்பட்டன.
CSAM சோதனைகள்: CSAM சோதனைகள் பாலியல் செயல்கள், மிரட்டி பணம் பறித்தல் மற்றும் சீர்ப்படுத்துதல் உள்ளிட்ட பல வகைகளை உள்ளடக்கியது.
CBRN சோதனைகள்: CBRN சோதனைகள் நச்சு இரசாயன முகவர்களின் தொகுப்பு மற்றும் கையாளுதல், உயிரியல் ஆயுத அறிவை உருவாக்குதல், கதிரியக்க அச்சுறுத்தல்கள் மற்றும் அணு ஆயுத பரவல் ஆகியவற்றை ஆராய்ந்தன.
வலுவான சீரமைப்பின்மை: அகர்வால் பாதிப்புகளை முதன்மையாக வலுவான சீரமைப்பில் உள்ள குறைபாட்டிற்கு காரணம் கூறினார், குறிப்பாக பயிற்சிக்குப் பிந்தைய பாதுகாப்பு சரிசெய்தலில்.
பரந்த அணுகல்: Enkrypt AI இந்த ஆராய்ச்சிக்கு Pixtral மாதிரிகளை அவற்றின் அதிகரித்து வரும் புகழ் மற்றும் பொது தளங்கள் மூலம் பரவலான அணுகல் காரணமாக தேர்ந்தெடுத்தது.
சூழல் விழிப்புணர்வு: தற்போதைய மல்டிமாடல் உள்ளடக்க வடிகட்டிகள் சூழல் விழிப்புணர்வு இல்லாததால் இந்த தாக்குதல்களைக் கண்டறியத் தவறிவிடுவதாக அறிக்கையின் கண்டுபிடிப்புகள் தெரிவிக்கின்றன.
பாதுகாப்பு அமைப்புகள்: பயனுள்ள பாதுகாப்பு அமைப்புகள் “சூழல் விழிப்புணர்வுடன்” இருக்க வேண்டும் என்று அகர்வால் வாதிட்டார், மேற்பரப்பு அளவிலான சமிக்ஞைகளை மட்டுமல்லாமல், அவர்கள் பாதுகாக்கும் வரிசைப்படுத்தலின் வணிக தர்க்கம் மற்றும் செயல்பாட்டு எல்லைகளையும் புரிந்துகொள்ள முடியும்.
பரந்த தாக்கங்கள்: இந்த கண்டுபிடிப்புகளின் தாக்கங்கள் தொழில்நுட்ப விவாதங்களுக்கு அப்பாற்பட்டவை. வெளித்தோற்றத்தில் பாதிப்பில்லாத படங்களில் தீங்கு விளைவிக்கும் வழிமுறைகளை உட்பொதிக்கும் திறன் நிறுவன பொறுப்பு, பொது பாதுகாப்பு மற்றும் குழந்தைகள் பாதுகாப்பு ஆகியவற்றிற்கு உறுதியான விளைவுகளை ஏற்படுத்தும் என்று Enkrypt வலியுறுத்தியது.
தணிப்பு உத்திகள்: மாதிரி பாதுகாப்பு பயிற்சி, சூழல் விழிப்புணர்வு பாதுகாப்புக் கம்பி வடங்கள் மற்றும் வெளிப்படையான இடர் வெளிப்பாடுகள் உள்ளிட்ட தணிப்பு உத்திகளை உடனடியாக செயல்படுத்த அறிக்கை வலியுறுத்தியது.
எச்சரிக்கை அழைப்பு: அகர்வால் இந்த ஆய்வை “எச்சரிக்கை அழைப்பு” என்று வகைப்படுத்தினார், மல்டிமாடல் AI “நம்பமுடியாத நன்மைகளை அளிக்கிறது, ஆனால் இது கணிக்க முடியாத வழிகளில் தாக்குதல் மேற்பரப்பை விரிவுபடுத்துகிறது” என்று கூறினார்.
மல்டிமாடல் AI இன் அபாயங்களை நிவர்த்தி செய்தல்: Enkrypt AI அறிக்கை தற்போதைய AI பாதுகாப்பு நெறிமுறைகளில் முக்கியமான பாதிப்புகளை எடுத்துக்காட்டுகிறது, குறிப்பாக மிஸ்ட்ரல் AI உருவாக்கியது போன்ற மல்டிமாடல் மாதிரிகள் குறித்து.
மேம்பட்ட பாதுகாப்பு நடவடிக்கைகள்: AI மாதிரிகளின் மேம்பாடு மற்றும் வரிசைப்படுத்தலில் மேம்பட்ட பாதுகாப்பு நடவடிக்கைகளின் அவசரத் தேவையை அறிக்கை அடிக்கோடிட்டுக் காட்டுகிறது.
வலுவான சீரமைப்பு பயிற்சி: AI மாதிரிகள் மனித மதிப்புகள் மற்றும் நெறிமுறை கொள்கைகளுடன் ஒத்துப்போவதை உறுதிப்படுத்த கடுமையான சீரமைப்பு பயிற்சிக்கு உட்படுத்தப்பட வேண்டும்.
சூழல் விழிப்புணர்வு பாதுகாப்புக் கம்பி வடங்கள்: பாதுகாப்பு அமைப்புகள் சூழல் விழிப்புணர்வுடன் இருக்க வேண்டும், அதாவது AI மாதிரிகள் பயன்படுத்தப்படும் சூழலைப் புரிந்துகொள்ளவும், அவற்றின் பதில்களை அதற்கேற்ப மாற்றியமைக்கவும் அவை திறன் கொண்டதாக இருக்க வேண்டும்.
வெளிப்படையான இடர் வெளிப்பாடுகள்: டெவலப்பர்கள் தங்கள் AI மாதிரிகளுடன் தொடர்புடைய அபாயங்களைப் பற்றி வெளிப்படையாக இருக்க வேண்டும் மற்றும் அந்த அபாயங்களைத் தணிப்பது குறித்த தெளிவான வழிகாட்டுதலை வழங்க வேண்டும்.
தொடர்ச்சியான கண்காணிப்பு மற்றும் மதிப்பீடு: AI மாதிரிகள் தொடர்ந்து கண்காணிக்கப்பட்டு மதிப்பீடு செய்யப்பட வேண்டும் சாத்தியமான பாதுகாப்பு பாதிப்புகளை அடையாளம் கண்டு நிவர்த்தி செய்ய வேண்டும்.
ஒத்துழைப்பின் பங்கு: மல்டிமாடல் AI இன் அபாயங்களை நிவர்த்தி செய்வதற்கு AI டெவலப்பர்கள், பாதுகாப்பு ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பிற பங்குதாரர்களிடையே ஒத்துழைப்பு தேவைப்படுகிறது.
முன்னோக்கி செல்லும் பாதை: Enkrypt AI அறிக்கை சரிபார்க்கப்படாத AI மேம்பாட்டின் சாத்தியமான ஆபத்துகளைப் பற்றிய ஒரு கடுமையான நினைவூட்டலாக செயல்படுகிறது.
சக்திவாய்ந்த AI மாடல்களின் பாதுக்காப்பை கருத்தில் கொண்டு செயல்படவேண்டியது அவசியமாகிறது.