வைரஸ் ஆய்வகத்தில் AI: உயிராபத்து அச்சங்கள்
ஒரு புரட்சிகரமான ஆய்வில், சாட்ஜிபிடி மற்றும் கிளாட் போன்ற தளங்களுக்கு சக்தியளிக்கும் மேம்பட்ட செயற்கை நுண்ணறிவு (AI) மாதிரிகள், வைரஸ் ஆய்வகங்களில் முனைவர் பட்டம் பெற்ற அனுபவமுள்ள வைரலாஜிஸ்டுகளை விட சிறந்த சிக்கலைத் தீர்க்கும் திறன்களைக் காட்டுகின்றன என்பது தெரியவந்துள்ளது. இந்த வெளிப்பாடு, நோய்களைத் தடுப்பதில் மிகப்பெரிய திறனைக் கொண்டிருப்பதுடன், தேவையான நிபுணத்துவம் மற்றும் நெறிமுறை கருத்தில்லாத தனிநபர்களால் குறிப்பாக உயிராபத்து ஆயுதங்களை உருவாக்க AI ஐ தவறாகப் பயன்படுத்தும் சாத்தியக்கூறுகள் குறித்து குறிப்பிடத்தக்க கவலைகளை எழுப்புகிறது.
வைரஸ் ஆய்வில் AI இன் இருபுறமும் கூர்மையான கத்தி
இந்த ஆய்வு, AI பாதுகாப்பு மையம், MIT இன் மீடியா லேப், UFABC (பிரேசிலிய பல்கலைக்கழகம்) மற்றும் தொற்றுநோய் தடுப்புக்காக அர்ப்பணிக்கப்பட்ட ஒரு இலாப நோக்கற்ற அமைப்பான SecureBio ஆகியவற்றைச் சேர்ந்த ஆராய்ச்சியாளர்களின் கூட்டு முயற்சியாகும். வைரஸ் ஆராய்ச்சியில் பொதுவாகப் பயன்படுத்தப்படும் சிக்கலான ஆய்வக நடைமுறைகள் மற்றும் நெறிமுறைகளை திறம்பட சரிசெய்யும் AI மாதிரிகளின் திறனை மதிப்பிடும் ஒரு சவாலான நடைமுறை சோதனையை வடிவமைக்க முன்னணி வைரலாஜிஸ்டுகளுடன் ஆராய்ச்சி குழு ஆலோசனை நடத்தியது.
சோதனையின் முடிவுகள் வியக்கத்தக்கதாக இருந்தன. முனைவர் பட்டம் பெற்ற வைரலாஜிஸ்டுகள், அவர்களின் விரிவான பயிற்சி மற்றும் அனுபவம் இருந்தபோதிலும், அவர்கள் அறிவித்த நிபுணத்துவ பகுதிகளில் சராசரியாக 22.1% துல்லியமான மதிப்பெண்ணை மட்டுமே பெற்றனர். இதற்கு நேர்மாறாக, OpenAI இன் o3 மாதிரி 43.8% துல்லியத்தையும், Google இன் Gemini 2.5 Pro 37.6% துல்லியத்தையும் பெற்றது. இந்த கண்டுபிடிப்புகள், AI மாதிரிகள் வைரஸ் ஆய்வகங்களில் சிக்கலான பணிகளைச் செய்யத் தேவையான அறிவு மற்றும் திறன்களை விரைவாகப் பெறுகின்றன என்பதைக் காட்டுகின்றன. சில பகுதிகளில் மனித நிபுணர்களின் திறன்களை மிஞ்சும் சாத்தியக்கூறுகள் உள்ளன.
உயிராபத்து ஆயுதங்கள் உருவாக்கம் பற்றிய கவலைகள்
SecureBio இல் ஆராய்ச்சி விஞ்ஞானியும், ஆய்வின் இணை ஆசிரியருமான சேத் டோனூக், இந்த கண்டுபிடிப்புகளின் தாக்கங்கள் குறித்து தனது கவலையை வெளிப்படுத்தினார். வரலாற்றில் முதன்முறையாக, இந்த AI மாடல்களுக்கு அணுகல் உள்ள எவரும் ஒரு சார்பற்ற AI வைரஸ் நிபுணரை தங்கள் வசம் வைத்திருக்க முடியும், இது உயிராபத்து ஆயுதங்களை உருவாக்கத் தேவையான சிக்கலான ஆய்வக செயல்முறைகள் மூலம் அவர்களுக்கு வழிகாட்டக்கூடும் என்று அவர் குறிப்பிட்டார்.
வரலாறு முழுவதும், உயிராபத்து ஆயுதங்களை உருவாக்க ஏராளமான முயற்சிகள் மேற்கொள்ளப்பட்டுள்ளன, ஆனால் தேவையான நிபுணத்துவம் இல்லாததால் இந்த முயற்சிகள் பல தோல்வியடைந்துள்ளன என்று டோனூக் வலியுறுத்தினார். இந்த நிபுணத்துவத்தை வழங்கக்கூடிய AI மாதிரிகளின் பரவலான கிடைக்கும் தன்மை தவறாகப் பயன்படுத்தப்படுவதற்கான சாத்தியக்கூறுகள் மற்றும் இந்த திறன்கள் எவ்வாறு விநியோகிக்கப்படுகின்றன என்பதில் எச்சரிக்கையாக இருக்க வேண்டியதன் அவசியத்தைப் பற்றி தீவிரமான கவலைகளை எழுப்புகிறது என்று அவர் எச்சரித்தார்.
- நிபுணத்துவம் இல்லாதவர்களால் தவறாகப் பயன்படுத்தப்படும் அபாயம்.
- கொடிய உயிராபத்து ஆயுதங்களை உருவாக்கும் சாத்தியம்.
- AI வைரஸ் நிபுணத்துவத்தை விநியோகிப்பதில் எச்சரிக்கையாக இருக்க வேண்டிய அவசியம்.
AI ஆய்வகங்கள் கவலைகளுக்கு பதிலளித்தன
ஆய்வின் கண்டுபிடிப்புகளுக்கு பதிலளிக்கும் விதமாக, ஆசிரியர்கள் முக்கிய AI ஆய்வகங்களுடன் முடிவுகளைப் பகிர்ந்து கொண்டனர். இது சில நடவடிக்கைகளை எடுக்கத் தூண்டியது. எடுத்துக்காட்டாக, xAI, அதன் AI மாடல் Grok இன் எதிர்கால பதிப்புகளில் வைரஸ் தடுப்பு நடவடிக்கைகளை செயல்படுத்தும் நோக்கத்தை கோடிட்டுக் காட்டும் ஒரு இடர் மேலாண்மை கட்டமைப்பை வெளியிட்டது. OpenAI, கடந்த வாரம் வெளியிடப்பட்ட அதன் புதிய மாடல்களுக்கு “உயிரியல் அபாயங்களுக்கான புதிய சிஸ்டம்-லெவல் தணிப்பு நடவடிக்கைகளை” மேற்கொண்டதாக TIME க்கு அறிவித்தது. Anthropic சமீபத்திய சிஸ்டம் கார்டுகளில் கட்டுரையில் மாதிரி செயல்திறன் முடிவுகளை உள்ளடக்கியது, ஆனால் குறிப்பிட்ட தணிப்பு நடவடிக்கைகளை முன்மொழியவில்லை. Google இன் ஜெமினி TIME க்கு கருத்து தெரிவிக்க மறுத்துவிட்டது.
இந்த பதில்கள் AI இன் வைரஸ் திறன்களில் அதிகரித்து வரும் திறன்களுடன் தொடர்புடைய சாத்தியமான அபாயங்கள் மற்றும் தவறாகப் பயன்படுத்துவதைத் தடுக்க பாதுகாப்புகளை செயல்படுத்த வேண்டியதன் அவசியம் குறித்து AI டெவலப்பர்களிடையே வளர்ந்து வரும் விழிப்புணர்வைக் குறிக்கிறது.
நோயை எதிர்த்துப் போராடுவதில் AI இன் வாக்குறுதி
உயிராபத்து ஆயுதம் உருவாக்கம் பற்றிய கவலைகள் இருந்தபோதிலும், AI வைரஸ் ஆராய்ச்சியை மேம்படுத்துவதற்கும் தொற்று நோய்களை எதிர்த்துப் போராடுவதற்கும் மிகப்பெரிய வாக்குறுதியைக் கொண்டுள்ளது. AI தலைவர்கள் நீண்ட காலமாக AI இன் பயோமெடிசினை புரட்சிகரமாக்கும் மற்றும் புதிய சிகிச்சைகள் மற்றும் குணப்படுத்துதல்களை துரிதப்படுத்தும் திறனை அங்கீகரித்துள்ளனர்.
எடுத்துக்காட்டாக, OpenAI CEO சாம் ஆல்ட்மேன் ஜனவரியில் வெள்ளை மாளிகையில் ‘இந்த தொழில்நுட்பம் முன்னேறும்போது, நோய்கள் முன்னெப்போதும் இல்லாத விகிதத்தில் குணப்படுத்தப்படுவதை நாம் காண்போம்’ என்று கூறினார். இந்த பகுதியில் முன்னேற்றம் ஏற்பட்டதற்கான ஊக்கமளிக்கும் அறிகுறிகளால் இந்த நம்பிக்கை ஆதரிக்கப்படுகிறது. இந்த ஆண்டின் தொடக்கத்தில், புளோரிடா பல்கலைக்கழகத்தின் வளர்ந்து வரும் நோய்க்கிருமி நிறுவனத்தில் ஆராய்ச்சியாளர்கள் எந்த கொரோனா வைரஸ் மாறுபாடு வேகமாக பரவும் என்று கணிக்கக்கூடிய ஒரு வழிமுறையை உருவாக்கினர்.
வைரஸ் ஆய்வக வேலையைச் செய்ய AI இன் திறனை மதிப்பிடுதல்
AI வைரஸ் தொடர்பான கல்வி சார்ந்த தகவல்களை வழங்குவதில் நம்பிக்கைக்குரியதாக இருந்தாலும், வைரஸ் ஆய்வக வேலையை உண்மையில் செய்யும் திறனைப் புரிந்துகொள்வதில் ஒரு பெரிய இடைவெளி இருந்தது. இந்த இடைவெளியை நிவர்த்தி செய்ய, டோனூக் மற்றும் அவரது சக ஊழியர்கள், குறிப்பாக கடினமான, கூகிளில் தேட முடியாத கேள்விகளுக்கான சோதனையை வடிவமைத்தனர். அதற்கு நடைமுறை உதவி மற்றும் கல்வி கட்டுரைகளில் பொதுவாகக் காணப்படாத படங்கள் மற்றும் தகவல்களை விளக்க வேண்டியது அவசியம்.
குறிப்பிட்ட செல் வகைகள் மற்றும் நிலைமைகளில் வைரஸ்களை வளர்க்கும் போது ஏற்படும் சிக்கல்களை சரிசெய்தல் போன்ற வைரலாஜிஸ்டுகள் தங்கள் அன்றாட வேலையில் எதிர்கொள்ளும் சவால்களைப் பிரதிபலிக்கும் வகையில் கேள்விகள் வடிவமைக்கப்பட்டுள்ளன.
வடிவம் பின்வருமாறு வடிவமைக்கப்பட்டது:
- ஒரு குறிப்பிட்ட சூழ்நிலையை வழங்குதல்.
- சோதனை அமைப்பு பற்றிய விவரங்களை வழங்குதல்.
- மிகவும் சாத்தியமான சிக்கலை அடையாளம் காண AI ஐக் கேட்டல்.
நடைமுறை சோதனைகளில் வைரலாஜிஸ்டுகளை AI விஞ்சியது
சோதனையின் முடிவுகள் ஒவ்வொரு AI மாதிரியும் முனைவர் பட்டம் பெற்ற வைரலாஜிஸ்டுகளை விட சிறப்பாக செயல்பட்டன என்பதை வெளிப்படுத்தியது. அது அவர்களின் சொந்த நிபுணத்துவப்பகுதிகளில் கூட. AI மாதிரிகள் வைரஸ் அறிவின் பரந்த அளவை அணுகி செயலாக்க முடியும் என்பதோடு மட்டுமல்லாமல், இந்த அறிவை ஆய்வகத்தில் நடைமுறை சிக்கல்களைத் தீர்க்கவும் பயன்படுத்த முடியும் என்று இந்த கண்டுபிடிப்பு கூறுகிறது.
மாடல்கள் காலப்போக்கில் குறிப்பிடத்தக்க முன்னேற்றத்தைக் காட்டியதை ஆராய்ச்சியாளர்கள் கவனித்தனர், இது வைரஸ் துறையில் தங்கள் திறன்களை தொடர்ந்து கற்று மேம்படுத்துகின்றன என்பதைக் குறிக்கிறது. எடுத்துக்காட்டாக, Anthropic இன் Claude 3.5 Sonnet ஜூன் 2024 மாடலில் இருந்து அக்டோபர் 2024 மாடலுக்கு 26.9% இலிருந்து 33.6% துல்லியத்திற்கு உயர்ந்தது. பிப்ரவரியில் OpenAI இன் GPT 4.5 இன் முன்னோட்டம் GPT-4o ஐ விட கிட்டத்தட்ட 10 சதவீதம் புள்ளிகள் அதிகமாக இருந்தது.
AI இன் வளர்ந்து வரும் திறன்களின் தாக்கங்கள்
AI பாதுகாப்பு மையத்தின் இயக்குனர் டான் ஹென்ட்ரிக்ஸ், AI மாதிரிகள் இப்போது ஒரு கவலைக்குரிய அளவு நடைமுறை அறிவைப் பெற்று வருகின்றன என்று வலியுறுத்தினார். AI மாதிரிகள் ஆய்வக அமைப்புகளில் ஆய்வு குறிப்பிடுவது போல திறமையானதாக இருந்தால், அதன் தாக்கங்கள் மிகவும் ஆழமானவை.
ஒருபுறம், AI வைரஸ்களை எதிர்த்துப் போராடுவதில் அனுபவம் வாய்ந்த வைரலாஜிஸ்டுகளுக்கு விலைமதிப்பற்ற உதவியை வழங்க முடியும், மருந்து மற்றும் தடுப்பூசி மேம்பாட்டின் காலவரிசைகளை துரிதப்படுத்தலாம் மற்றும் மருத்துவ பரிசோதனைகள் மற்றும் நோய்களைக் கண்டறிவதை மேம்படுத்தலாம். ஜான்ஸ் ஹாப்கின்ஸ் மையத்தின் சுகாதார பாதுகாப்பு இயக்குனர் டாம் இங்கிள்ஸ்பி, உலகின் பல்வேறு பகுதிகளில் உள்ள விஞ்ஞானிகளுக்கு, குறிப்பாக சிறப்பு திறன்கள் அல்லது வளங்கள் இல்லாதவர்களுக்கு, தங்கள் நாடுகளில் ஏற்படும் நோய்களில் மதிப்புமிக்க அன்றாடப் பணிகளைச் செய்ய AI அதிகாரம் அளிக்கும் என்று குறிப்பிட்டார்.
- மருந்து மற்றும் தடுப்பூசி மேம்பாட்டை துரிதப்படுத்துதல்.
- மருத்துவ பரிசோதனைகள் மற்றும் நோய்களைக் கண்டறிவதை மேம்படுத்துதல்.
- வள ஆதாரங்கள் குறைந்த அமைப்புகளில் விஞ்ஞானிகளுக்கு அதிகாரம் அளித்தல்.
தவறான நோக்கமுள்ள நடிகர்களால் தவறாகப் பயன்படுத்தப்படும் ஆபத்து
மறுபுறம், இந்த மாதிரிகளைப் பயன்படுத்தி வைரஸ்களை எவ்வாறு உருவாக்குவது என்பதை அறிய இந்த ஆய்வு தீவிரமான கவலைகளை எழுப்புகிறது. இதற்கு வழக்கமான பயிற்சி தேவையில்லை. மேலும் ஆபத்தான மற்றும் கவர்ச்சியான தொற்று முகவர்களை கையாளும் பயோ பாதுகாப்பு நிலை 4 (BSL-4) ஆய்வகத்தில் நுழைய வேண்டிய அவசியமும் இல்லை. AI வைரஸ்களை நிர்வகிக்கவும் கையாளவும் குறைவான பயிற்சி பெற்ற அதிக நபர்களுக்கு அதிகாரம் அளிக்கும் என்று இங்கிள்ஸ்பி எச்சரித்தார். இது பேரழிவு விளைவுகளுக்கு வழிவகுக்கும் சாத்தியம் உள்ளது.
இந்த வகையான பயன்பாட்டைத் தடுக்க AI நிறுவனங்கள் பாதுகாப்பு தடைகளை செயல்படுத்த வேண்டும் என்று ஹென்ட்ரிக்ஸ் வலியுறுத்தினார். ஆறு மாதங்களுக்குள் அவ்வாறு செய்யத் தவறினால் அது பொறுப்பற்ற செயலாக இருக்கும் என்று கூறினார். MIT உயிரியல் துறையில் உள்ள ஆராய்ச்சியாளர்கள் போன்ற அபாயகரமான வைரஸ்களை கையாள சட்டப்பூர்வ காரணங்களைக் கொண்ட நம்பகமான மூன்றாம் தரப்பினருக்கு மட்டுமே அவற்றின் வடிகட்டப்படாத பதிப்புகளுக்கு அணுகல் இருக்கும் வகையில், இந்த மாதிரிகள் பாதுகாக்கப்பட்டிருக்க வேண்டும் என்பது ஒரு தீர்வு என்று அவர் முன்மொழிந்தார்.
- பாதுகாப்பு தடைகளை செயல்படுத்துவதன் மூலம் தவறாகப் பயன்படுத்துவதைத் தடுத்தல்.
- நம்பகமான கட்சிகளுக்கு மட்டுமே அணுகலைக் கட்டுப்படுத்துவதன் மூலம் மாதிரிகளைப் பாதுகாத்தல்.
- அங்கீகரிக்கப்பட்ட ஆராய்ச்சியாளர்கள் மட்டுமே முக்கியமான திறன்களுக்கு அணுகல் வைத்திருப்பதை உறுதி செய்தல்.
தொழில்துறை சுய-கட்டுப்பாட்டின் சாத்தியக்கூறு
AI நிறுவனங்கள் சுய-கட்டுப்பாடு செய்து இந்த வகையான பாதுகாப்புகளை செயல்படுத்த தொழில்நுட்ப ரீதியாக சாத்தியம் என்று ஹென்ட்ரிக்ஸ் நம்புகிறார். இருப்பினும், சில நிறுவனங்கள் தங்கள் கால்களை இழுக்கின்றனவா அல்லது தேவையான நடவடிக்கைகளை எடுக்கத் தவறுகின்றனவா என்பது குறித்து அவர் கவலை தெரிவித்தார்.
xAI, எலான் மஸ்க்கின் AI ஆய்வகம், கட்டுரையை ஒப்புக்கொண்டது மற்றும் வைரஸ் கேள்விகளுக்கு பதிலளிப்பதில் சில பாதுகாப்புகளை “சாத்தியமாக பயன்படுத்தும்” என்று சமிக்ஞை செய்தது. தீங்கு விளைவிக்கும் கோரிக்கைகளை மறுக்க Grok க்கு பயிற்சி அளிப்பது மற்றும் உள்ளீடு மற்றும் வெளியீட்டு வடிப்பான்களைப் பயன்படுத்துவது ஆகியவை அடங்கும்.
OpenAI, அதன் புதிய மாதிரிகள், o3 மற்றும் o4-mini, தீங்கு விளைவிக்கும் வெளியீடுகளைத் தடுப்பது உட்பட, உயிரியல்-ஆபத்து தொடர்பான பாதுகாப்புகளின் வரிசையுடன் பயன்படுத்தப்பட்டன என்று கூறியது. ஆயிரக்கணக்கான மணிநேர ரெட்-டீமிங் பிரச்சாரத்தை நடத்தியதாகவும், இதில் 98.7% பாதுகாப்பற்ற உயிரியல் தொடர்பான உரையாடல்கள் வெற்றிகரமாகக் கொடியிடப்பட்டு தடுக்கப்பட்டன என்றும் நிறுவனம் தெரிவித்துள்ளது.
- தீங்கு விளைவிக்கும் கோரிக்கைகளை மறுக்க AI மாடல்களுக்கு பயிற்சி அளித்தல்.
- அபாயகரமான உள்ளடக்கத்தைத் தடுக்க உள்ளீடு மற்றும் வெளியீட்டு வடிப்பான்களைப் பயன்படுத்துதல்.
- ஆபத்துக்களை அடையாளம் கண்டு தணிப்பதற்கு ரெட்-டீமிங் பயிற்சிகளை நடத்துதல்.
கொள்கை மற்றும் ஒழுங்குமுறையின் தேவை
இந்த முயற்சிகள் இருந்தபோதிலும், தொழில்துறை சுய-கட்டுப்பாடு மட்டும் போதாது என்று இங்கிள்ஸ்பி வாதிடுகிறார். AI இன் உயிரியல் அபாயங்களை ஒழுங்குபடுத்துவதற்கு சட்டமியற்றுபவர்களும் அரசியல் தலைவர்களும் கொள்கை அணுகுமுறையை உருவாக்க வேண்டும் என்று அவர் அழைப்பு விடுக்கிறார். இந்த அபாயங்களைச் சமாளிக்க சில நிறுவனங்கள் நேரத்தையும் பணத்தையும் செலவிடுகின்றன, மற்றவர்கள் அவ்வாறு செய்யாமல் போகலாம். இதனால் என்ன நடக்கிறது என்பது குறித்து மக்களுக்கு நுண்ணறிவு இருக்காது என்று அவர் வலியுறுத்தினார்.
புதிய LLM இன் பதிப்பு வெளியிடப்படுவதற்கு முன்பு, அது தொற்றுநோய் அளவிலான விளைவுகளை உருவாக்காது என்பதை உறுதிப்படுத்த மதிப்பீடு செய்யப்பட வேண்டும் என்று இங்கிள்ஸ்பி முன்மொழிந்தார். இதற்கு வைரஸ் துறையில் AI இன் திறன்களை ஒழுங்குபடுத்துவதற்கு ஒரு விரிவான மற்றும் ஒருங்கிணைந்த அணுகுமுறை தேவைப்படும். தொழில்துறை மற்றும் அரசாங்க பங்குதாரர்கள் இருவரையும் உள்ளடக்கியது.
- தொற்றுநோய் அளவிலான விளைவுகளைத் தடுக்க வெளியிடுவதற்கு முன்பு LLM களை மதிப்பிடுதல்.
- AI இன் உயிரியல் அபாயங்களை ஒழுங்குபடுத்துவதற்கு ஒரு விரிவான கொள்கை அணுகுமுறையை உருவாக்குதல்.
- ஒழுங்குமுறை செயல்பாட்டில் தொழில்துறை மற்றும் அரசாங்க பங்குதாரர்கள் இருவரையும் ஈடுபடுத்துதல்.
கண்டுபிடிப்பு மற்றும் பாதுகாப்பிற்கு இடையே ஒரு சமநிலையை ஏற்படுத்துதல்
AI இல் கண்டுபிடிப்பை ஊக்குவிப்பதற்கும், இந்த சக்திவாய்ந்த தொழில்நுட்பங்கள் கொடிய உயிராபத்து ஆயுதங்களை உருவாக்க தவறாக பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்வதற்கும் இடையே ஒரு சமநிலையை ஏற்படுத்துவதே சவாலாகும். இதற்கு பலதரப்பட்ட அணுகுமுறை தேவைப்படுகிறது:
- தவறாகப் பயன்படுத்துவதைத் தடுக்க வலுவான பாதுகாப்புகளை உருவாக்குதல்.
- நம்பகமான கட்சிகளுக்கு மட்டுமே முக்கியமான திறன்களுக்கு அணுகலைக் கட்டுப்படுத்துதல்.
- வைரஸ் துறையில் AI இன் திறன்களை ஒழுங்குபடுத்துதல்.
- பொறுப்பான கண்டுபிடிப்பு மற்றும் நெறிமுறை கருத்தில் ஊக்குவித்தல்.
இந்த நடவடிக்கைகளை எடுப்பதன் மூலம், வைரஸ் ஆராய்ச்சியை மேம்படுத்துவதற்கும் தொற்று நோய்களை எதிர்த்துப் போராடுவதற்கும் AI இன் அளப்பரிய திறனை நாம் பயன்படுத்த முடியும். அதே நேரத்தில் அதன் தவறான பயன்பாட்டுடன் தொடர்புடைய அபாயங்களையும் குறைக்க முடியும். வைரஸ் துறையில் AI இன் எதிர்காலம் இந்த சிக்கலான நிலப்பரப்பை பொறுப்புடன் வழிநடத்தும் நமது திறனைப் பொறுத்தது. இந்த சக்திவாய்ந்த தொழில்நுட்பங்கள் மனிதகுலத்தின் நன்மைக்காகப் பயன்படுத்தப்படுவதை உறுதி செய்ய வேண்டும்.