గూగుల్ యొక్క జెమిని 2.5 ప్రో AI మోడల్ యొక్క తాజా విడుదల కీలకమైన భద్రతా నివేదిక లేనందున వివాదాన్ని రేకెత్తించింది. ఈ తొలగింపు US ప్రభుత్వానికి మరియు అంతర్జాతీయ శిఖరాగ్ర సమావేశాలలో గూగుల్ చేసిన వాగ్దానాలకు విరుద్ధంగా ఉంది, ఇది పారదర్శకత మరియు బాధ్యతాయుతమైన AI అభివృద్ధికి కంపెనీ యొక్క నిబద్ధత గురించి ఆందోళనలను పెంచుతుంది. AI నమూనాలకు సంబంధించిన సామర్థ్యాలు మరియు సంభావ్య నష్టాల గురించి ప్రజలకు తెలియజేస్తామని గూగుల్ మరియు ఇతర ప్రముఖ AI ల్యాబ్లు ఇచ్చిన హామీలను వెనక్కి తీసుకుంటున్నాయా అని నిపుణులు ఇప్పుడు ప్రశ్నిస్తున్నారు.
విరిగిన వాగ్దానాలు మరియు నెరవేరని నిబద్ధతలు
జెమిని 2.5 ప్రో విడుదలతో పాటు భద్రతా పరిశోధన నివేదికను అందించడంలో గూగుల్ వైఫల్యం గత నిబద్ధతల ఉల్లంఘనగా చూడబడుతోంది. జూలై 2023లో, బైడెన్ ప్రభుత్వం ఏర్పాటు చేసిన వైట్ హౌస్ సమావేశంలో గూగుల్ పాల్గొంది, అక్కడ ఇతర ప్రముఖ AI కంపెనీలతో కలిసి అనేక ప్రతిజ్ఞలపై సంతకం చేసింది. ప్రస్తుత అత్యాధునిక AIని మించిన అన్ని ప్రధాన పబ్లిక్ మోడల్ విడుదలకు నివేదికలను ప్రచురించడం ఒక ముఖ్యమైన నిబద్ధత. దాని పురోగతిని బట్టి, జెమిని 2.5 ప్రో దాదాపు ఖచ్చితంగా ఈ వైట్ హౌస్ నిబద్ధతల పరిధిలోకి వస్తుంది.
ఆ సమయంలో, ఈ నివేదికలు ఈ క్రింది వాటిని కలిగి ఉండాలని గూగుల్ అంగీకరించింది:
- ప్రమాదకర సామర్థ్యాల అంచనాలతో సహా నిర్వహించిన భద్రతా మూల్యాంకనాలు.
- సముచిత వినియోగ సందర్భాలను ప్రభావితం చేసే ముఖ్యమైన పనితీరు పరిమితులు.
- న్యాయం మరియు పక్షపాతం వంటి సామాజిక నష్టాలపై నమూనా యొక్క ప్రభావాల గురించి చర్చలు.
- నమూనా యొక్క అనుకూలతను అంచనా వేయడానికి ప్రతికూల పరీక్షల ఫలితాలు.
అక్టోబర్ 2023లో జపాన్లోని హిరోషిమాలో జరిగిన G7 సమావేశం తరువాత, గూగుల్ మరియు ఇతర కంపెనీలు అభివృద్ధి చెందిన AI అభివృద్ధికి స్వచ్ఛంద ప్రవర్తనా నియమావళికి కట్టుబడి ఉంటామని ప్రతిజ్ఞ చేశాయి. ఈ G7 కోడ్ అధునాతన AI వ్యవస్థల సామర్థ్యాలు, పరిమితులు మరియు అనువైన మరియు అనుచితమైన అనువర్తనాలను బహిరంగంగా నివేదించడం యొక్క ప్రాముఖ్యతను నొక్కి చెప్పింది. AI రంగంలో పారదర్శకత మరియు జవాబుదారీతనం పెంచడం దీని లక్ష్యం.
మే 2024లో, దక్షిణ కొరియాలోని సియోల్లో జరిగిన AI భద్రతపై అంతర్జాతీయ శిఖరాగ్ర సమావేశంలో, గూగుల్ తన నిబద్ధతలను పునరుద్ఘాటించింది. మోడల్ సామర్థ్యాలు, పరిమితులు, సముచిత మరియు అనుచితమైన వినియోగ సందర్భాలను బహిరంగంగా వెల్లడిస్తామని మరియు దాని ప్రమాద అంచనాలు మరియు ఫలితాల చుట్టూ పారదర్శకతను అందిస్తామని కంపెనీ వాగ్దానం చేసింది.
గూగుల్ ప్రతిస్పందన మరియు ఆలస్యమైన పారదర్శకత
తప్పిపోయిన భద్రతా నివేదిక గురించి విచారణలకు ప్రతిస్పందనగా, జెమిని నమూనాలను అభివృద్ధి చేయడానికి బాధ్యత వహించే గూగుల్ డీప్మైండ్ యొక్క ప్రతినిధి, తాజా జెమిని విడుదలకు ముందు పరీక్షలకు గురైందని పేర్కొన్నారు. ఇందులో అంతర్గత అభివృద్ధి మూల్యాంకనాలు మరియు మోడల్ విడుదల చేయడానికి ముందు నిర్వహించిన హామీ మూల్యాంకనాలు ఉన్నాయి. అదనపు భద్రతా సమాచారం మరియు మోడల్ కార్డ్లతో కూడిన నివేదిక ‘త్వరలో రాబోతోంది’ అని కూడా ప్రతినిధి సూచించారు. ఏప్రిల్ 2న ప్రారంభ ప్రకటన వెలువడినప్పటికీ, ఇప్పటి వరకు ఎటువంటి మోడల్ కార్డ్ ప్రచురించబడలేదు.
భద్రతా నివేదికను నిర్లక్ష్యం చేసే విస్తృత ధోరణి
AI భద్రతకు తన నిబద్ధతకు సంబంధించి విమర్శలను ఎదుర్కొంటున్న ఏకైక సంస్థ గూగుల్ కాదు. ఈ సంవత్సరం ప్రారంభంలో, OpenAI కూడా తన డీప్ రీసెర్చ్ మోడల్ కోసం సకాలంలో మోడల్ కార్డ్ను విడుదల చేయడంలో విఫలమైనందుకు విమర్శలను ఎదుర్కొంది. బదులుగా, వారు ప్రాజెక్ట్ ప్రారంభ విడుదల తర్వాత వారాల వ్యవధిలో సిస్టమ్ కార్డ్ను ప్రచురించారు. అదేవిధంగా, Llama 4 కోసం Meta యొక్క తాజా భద్రతా నివేదిక చాలా సంక్షిప్తంగా ఉందని మరియు వివరాలు లేవని విమర్శించబడింది.
ఈ ఉదాహరణలు AI పరిశ్రమలో ఆందోళనకరమైన ధోరణిని హైలైట్ చేస్తాయి, ఇక్కడ కొన్ని ప్రధాన ల్యాబ్లు తమ మోడల్ విడుదలకు అనుగుణంగా భద్రతా నివేదికకు ప్రాధాన్యత ఇవ్వడం లేదు. US ప్రభుత్వానికి మరియు ప్రపంచ సమాజానికి ఈ కంపెనీలు స్వచ్ఛందంగా చేసిన నిబద్ధతల దృష్ట్యా ఇది చాలా కలవరపెడుతోంది. ఈ నిబద్ధతలు మొదట 2023లో బైడెన్ పరిపాలనకు చేయబడ్డాయి మరియు తరువాత హిరోషిమాలో జరిగిన AI శిఖరాగ్ర సమావేశంలో G7 దేశాలు ఆమోదించిన AI ప్రవర్తనా నియమావళికి అనుగుణంగా ఉంటామని ప్రతిజ్ఞల ద్వారా బలోపేతం చేయబడ్డాయి.
డెమోక్రసీ అండ్ టెక్నాలజీ సెంటర్లోని AI గవర్నెన్స్ సలహాదారు కెవిన్ బ్యాంక్స్టన్ తన నిరాశను వ్యక్తం చేస్తూ, ఈ వైఫల్యాలు సంబంధిత సంస్థల విశ్వసనీయతను దెబ్బతీస్తాయని మరియు బాధ్యతాయుతమైన AI అభివృద్ధికి వారి నిబద్ధత గురించి ప్రశ్నలను లేవనెత్తుతాయని అన్నారు.
సమాధానం లేని ప్రశ్నలు మరియు బాహ్య మూల్యాంకనం
జెమిని 2.5 ప్రోను UK AI సెక్యూరిటీ ఇన్స్టిట్యూట్ లేదా US AI సేఫ్టీ ఇన్స్టిట్యూట్చే బాహ్య మూల్యాంకనం కోసం సమర్పించారా అనే నిర్దిష్ట ప్రశ్నలకు కూడా గూగుల్ ప్రతినిధి ప్రకటన సమాధానం ఇవ్వలేదు. గతంలో, గూగుల్ తన జెమిని నమూనాల యొక్క మునుపటి తరాలను మూల్యాంకనం కోసం UK AI సేఫ్టీ ఇన్స్టిట్యూట్కు అందించింది.
సియోల్ సేఫ్టీ సమ్మిట్లో, గూగుల్ “ఫ్రాంటియర్ AI సేఫ్టీ కమిట్మెంట్లపై” సంతకం చేసింది, ఇందులో భద్రతా మూల్యాంకనాల అమలుపై బహిరంగంగా పారదర్శకతను అందించే ప్రతిజ్ఞ ఉంది. అలా చేయడం వల్ల ప్రమాదం పెరుగుతుంది లేదా సమాజ ప్రయోజనానికి అనుగుణంగా లేని సున్నితమైన వాణిజ్య సమాచారాన్ని బహిర్గతం చేసే సందర్భాల్లో మాత్రమే మినహాయింపులు ఉన్నాయి. బహిరంగంగా పంచుకోలేని మరింత వివరణాత్మక సమాచారం ఇప్పటికీ కంపెనీలు ఉన్న దేశాల ప్రభుత్వాలతో పంచుకోవాలని ప్రతిజ్ఞ పేర్కొంది, ఇది గూగుల్ విషయంలో US అవుతుంది.
ప్రభుత్వాలు, పౌర సమాజం, విద్యావేత్తలు మరియు ప్రజలు వంటి బాహ్య నటులు తమ AI నమూనాల ప్రమాదాలను అంచనా వేసే ప్రక్రియలో ఎలా పాల్గొంటారో వివరించడానికి కూడా కంపెనీలు కట్టుబడి ఉన్నాయి. గూగుల్ జెమిని 2.5 ప్రోను US లేదా UK ప్రభుత్వ మూల్యాంకదారులకు సమర్పించిందా అనే దానిపై ప్రత్యక్ష ప్రశ్నలకు సమాధానం చెప్పడంలో విఫలమవడం కూడా ఈ నిబద్ధతను ఉల్లంఘించే అవకాశం ఉంది.
పారదర్శకత కంటే మోహరింపునకు ప్రాధాన్యత
భద్రతా నివేదిక లేకపోవడం వల్ల గూగుల్ పారదర్శకత మరియు క్షుణ్ణంగా భద్రతా అంచనాల కంటే వేగవంతమైన మోహరింపునకు ప్రాధాన్యత ఇస్తుందనే ఆందోళనలను లేవనెత్తింది. ఆక్స్ఫర్డ్ ఇంటర్నెట్ ఇన్స్టిట్యూట్లో ప్రొఫెసర్ మరియు సీనియర్ పరిశోధకుడు అయిన సాండ్రా వాక్టర్, బాధ్యతాయుతమైన పరిశోధన మరియు ఆవిష్కరణలలో పారదర్శకత యొక్క ప్రాముఖ్యతను నొక్కి చెప్పారు. ఇతర పరిశ్రమలకు ఆమె ఒక సారూప్యతను గీసింది, ‘ఇది కారు లేదా విమానం అయితే, వీలైనంత త్వరగా దీనిని మార్కెట్లోకి తీసుకువద్దాం మరియు భద్రతా అంశాలను తరువాత పరిశీలిస్తామని మేము చెప్పలేము.’ జనరేటివ్ AI రంగంలో ‘దీన్ని అక్కడ ఉంచడం మరియు ఆందోళన చెందడం, దర్యాప్తు చేయడం మరియు తరువాత సమస్యలను పరిష్కరించడం’ అనే వైఖరి ఉందని వాక్టర్ ఆందోళన వ్యక్తం చేశారు.
రాజకీయ మార్పులు మరియు పోటీ ఒత్తిళ్లు
ఇటీవలి రాజకీయ మార్పులు, బిగ్ టెక్ కంపెనీల మధ్య తీవ్రమైన పోటీతో పాటు, AI నమూనాలను మోహరించడానికి కంపెనీలు పరుగెత్తడంతో గత భద్రతా నిబద్ధతల నుండి దూరంగా ఉండటానికి దోహదం చేయవచ్చు. టెక్ దేశాలు మరియుకొన్ని ప్రభుత్వాల మధ్య AI భద్రతా విధానాలు ఆవిష్కరణకు ఆటంకం కలిగిస్తున్నాయనే పెరుగుతున్న ఆందోళన కారణంగా ఈ జారిపోతున్న ప్రమాణాలు ఏర్పడవచ్చునని వాక్టర్ పేర్కొన్నారు. USలో, ట్రంప్ పరిపాలన బైడెన్ పరిపాలనతో పోలిస్తే AI నియంత్రణకు తక్కువ కఠినమైన విధానాన్ని అవలంబించాలని సూచించింది. కొత్త పరిపాలన ఇప్పటికే AIపై బైడెన్ యుగం యొక్క కార్యనిర్వాహక ఉత్తర్వును రద్దు చేసింది మరియు టెక్ నాయకులతో సన్నిహిత సంబంధాలను ఏర్పరుచుకుంది. పారిస్లో జరిగిన ఇటీవల AI శిఖరాగ్ర సమావేశంలో, US వైస్ ప్రెసిడెంట్ JD వాన్స్, భద్రత కంటే ‘వృద్ధికి అనుకూలమైన AI విధానాలకు’ ప్రాధాన్యత ఇవ్వాలని మరియు AI అనేది ‘ట్రంప్ పరిపాలన వృథా చేయని అవకాశం’ అని పేర్కొన్నారు.
అదే శిఖరాగ్ర సమావేశంలో, UK మరియు US రెండూ కృత్రిమ మేధస్సుపై అంతర్జాతీయ ఒప్పందంపై సంతకం చేయడానికి నిరాకరించాయి, ఇది సాంకేతిక పరిజ్ఞానం యొక్క అభివృద్ధికి ‘ఓపెన్,’ ‘సమ్మిళిత’ మరియు ‘నైతిక’ విధానాన్ని ప్రోత్సహిస్తుంది.
స్పష్టమైన పారదర్శకత అవసరాలు
బ్యాంక్స్టన్ నొక్కిచెప్పారు, ‘కొత్త నమూనాలను విడుదల చేసేటప్పుడు కనీసం వారి ప్రాథమిక భద్రత మరియు పారదర్శకత నిబద్ధతలను కూడా నెరవేర్చడానికి ఈ కంపెనీలపై మేము ఆధారపడలేకపోతే - వారు స్వచ్ఛందంగా చేసిన నిబద్ధతలు - అప్పుడు వారు క్షేత్రాన్ని ఆక్రమించాలనే వారి పోటీ పరుగులో చాలా త్వరగా నమూనాలను విడుదల చేస్తున్నారు.’ AI డెవలపర్లు ఈ నిబద్ధతలను ఉల్లంఘిస్తూనే ఉన్నందున, కంపెనీలు తప్పించుకోలేని స్పష్టమైన పారదర్శకత అవసరాలను అభివృద్ధి చేయడం మరియు అమలు చేయడం శాసనకర్తలపై ఆధారపడి ఉంటుందని ఆయన అన్నారు.
AI పాలనకు విస్తృత సూచనలు
గూగుల్ యొక్క జెమిని 2.5 ప్రో మరియు తప్పిపోయిన భద్రతా నివేదిక చుట్టూ ఉన్న వివాదం బలమైన AI పాలన ఫ్రేమ్వర్క్ల యొక్క కీలకమైన అవసరాన్ని నొక్కి చెబుతుంది. ఈ ఫ్రేమ్వర్క్లు వంటి కీలక సమస్యలను పరిష్కరించాలి:
- పారదర్శకత: AI డెవలపర్లు వారి నమూనాల సామర్థ్యాలు, పరిమితులు మరియు సంభావ్య నష్టాల గురించి పారదర్శకంగా ఉండేలా చూడటం.
- జవాబుదారీతనం: AI వ్యవస్థల అభివృద్ధి మరియు మోహరింపు కోసం జవాబుదారీతనం యొక్క స్పష్టమైన మార్గాలను ఏర్పాటు చేయడం.
- భద్రత: నష్టం కలిగించే ప్రమాదాన్ని తగ్గించడానికి కఠినమైన భద్రతా పరీక్షలు మరియు మూల్యాంకన విధానాలను అమలు చేయడం.
- నైతిక పరిశీలనలు: AI వ్యవస్థల రూపకల్పన మరియు అభివృద్ధిలో నైతిక సూత్రాలను సమగ్రపరచడం.
- ప్రజా నిశ్చితార్థం: AI మరియు దాని చిక్కుల గురించి విస్తృత అవగాహనను పెంపొందించడానికి ప్రజలతో నిమగ్నమవ్వడం.
- అంతర్జాతీయ సహకారం: AI పాలన కోసం సాధారణ ప్రమాణాలు మరియు ఉత్తమ పద్ధతులను అభివృద్ధి చేయడానికి అంతర్జాతీయంగా సహకరించడం.
జెమిని 2.5 ప్రో చుట్టూ ఉన్న పారదర్శకత లేకపోవడం AI పాలన యొక్క ఈ కీలకమైన అంశాలను నిర్లక్ష్యం చేయడం వల్ల కలిగే సంభావ్య పరిణామాలను హైలైట్ చేస్తుంది. తగిన పారదర్శకత మరియు జవాబుదారీతనం లేకుండా, AI వ్యవస్థల యొక్క నిజమైన ప్రభావాన్ని అంచనా వేయడం మరియు అవి బాధ్యతాయుతంగా మరియు నైతికంగా అభివృద్ధి చేయబడి, మోహరించబడ్డాయని నిర్ధారించడం కష్టమవుతుంది.
ముందుకు సాగడం: గొప్ప బాధ్యత కోసం పిలుపు
AI పరిశ్రమ ఒక కీలకమైన కూడలిలో ఉంది. AI సాంకేతికతలు మరింత శక్తివంతమైనవి మరియు సర్వత్రా వ్యాపించేవిగా మారడంతో, డెవలపర్లు భద్రత, పారదర్శకత మరియు నైతిక పరిశీలనలకు ప్రాధాన్యత ఇవ్వడం చాలా అవసరం. జెమిని 2.5 ప్రో చుట్టూ ఉన్న వివాదం స్వచ్ఛంద నిబద్ధతలు ఎల్లప్పుడూ సరిపోవని గుర్తు చేస్తుంది. స్పష్టమైన ప్రమాణాలను ఏర్పాటు చేయడంలో మరియు సమ్మతిని అమలు చేయడంలో ప్రభుత్వాలు మరియు నియంత్రణ సంస్థలు మరింత చురుకైన పాత్ర పోషించాలి.
అంతేకాకుండా, AI డెవలపర్లు ప్రజలతో నిమగ్నమవ్వడం మరియు AI మరియు దాని చిక్కుల గురించి విస్తృత అవగాహనను పెంపొందించడం చాలా ముఖ్యం. AI వ్యవస్థల పరిమితులు మరియు సంభావ్య నష్టాల గురించి పారదర్శకంగా ఉండటం, అలాగే ఆ నష్టాలను తగ్గించడానికి తీసుకుంటున్న చర్యలను కూడా ఇందులో ఉన్నాయి. కలిసి పనిచేయడం ద్వారా, AI పరిశ్రమ, ప్రభుత్వాలు మరియు ప్రజలు AI సాంకేతికతలు సమాజానికి మొత్తంమీద ప్రయోజనం చేకూర్చే విధంగా అభివృద్ధి చేయబడి, మోహరించబడతాయని నిర్ధారించగలవు.