Maendeleo ya Foresight, modeli ya akili bandia (AI), yamezua mjadala mkubwa kutokana na utegemezi wake kwenye hifadhidata kubwa ya rekodi za matibabu milioni 57 kutoka kwa Huduma ya Kitaifa ya Afya (NHS) nchini Uingereza. Wakati watetezi wanatangaza uwezo wake wa kuleta mapinduzi katika huduma ya afya kupitia utabiri wa magonjwa na utabiri wa kulazwa hospitalini, wakosoaji wanaeleza wasiwasi mkubwa kuhusu faragha ya mgonjwa na ulinzi wa data. Makala haya yanaeleza kwa kina ugumu wa Foresight, kuchunguza uwezo wake, matatizo ya kimaadili ambayo yanawasilisha, na ulinzi uliopo ili kupunguza hatari zinazoweza kutokea.
Foresight: Modeli ya AI ya Uzalishaji ya Kitaifa
Foresight, iliyoanzishwa mwaka wa 2023, awali ilitumia GPT-3 ya OpenAI, teknolojia inayounga mkono toleo la kwanza la ChatGPT, na ilifunzwa kwenye rekodi za wagonjwa milioni 1.5 kutoka hospitali mbili za London. Chris Tomlinson wa Chuo Kikuu cha London na timu yake tangu wakati huo wamepanua Foresight, wakiitaja kama modeli ya kwanza ya ulimwengu “ya kitaifa ya uzalishaji wa AI ya data ya afya.” Toleo hili lililoboreshwa linatumia LLM Llama 2 ya Meta na inajumuisha hifadhidata nane tofauti ambazo hukusanywa mara kwa mara na NHS nchini Uingereza kutoka Novemba 2018 hadi Desemba 2023. Hifadhidata hizi zinajumuisha miadi ya wagonjwa wa nje, kulazwa hospitalini, rekodi za chanjo, na matukio mengine yanayohusiana na afya, ikiwa ni jumla ya pointi za data bilioni 10 kwa watu milioni 57 - kimsingi idadi yote ya watu wa Uingereza.
Licha ya ukosefu wa vipimo vya utendaji vinavyopatikana kwa umma kutokana na majaribio yanayoendelea, Tomlinson anadai kuwa Foresight inaweza hatimaye kuwezesha utambuzi wa mtu binafsi na kutabiri mwenendo mpana wa afya, kama vile kulazwa hospitalini au mshtuko wa moyo. Alisisitiza uwezo wa modeli hiyo kutabiri matatizo ya magonjwa mapema, kuwezesha uingiliaji kati wa mapema na mabadiliko kuelekea huduma ya afya ya kuzuia kwa kiwango kikubwa wakati wa mkutano na waandishi wa habari mnamo Mei 6.
Wasiwasi Kuhusu Faragha na Ulinzi wa Data
Uwezekano wa kulisha data kubwa kama hiyo ya matibabu katika modeli ya AI umezua wasiwasi kuhusu faragha. Ingawa watafiti wanadai kwamba rekodi zote “zilitambuliwa” kabla ya kufunza AI, hatari ya utambulisho upya kupitia uchambuzi wa muundo wa data bado ni wasiwasi mkubwa, hasa kwa hifadhidata kubwa.
Luc Rocher wa Chuo Kikuu cha Oxford anaangazia changamoto ya asili ya kulinda faragha ya mgonjwa wakati wa kujenga modeli zenye nguvu za AI. Utajiri wa data sana ambao hufanya data iwe muhimu kwa madhumuni ya AI pia hufanya iwe vigumu sana kutotambulisha. Rocher anapendekeza udhibiti mkali wa NHS juu ya modeli hizi ili kuhakikisha matumizi salama.
Michael Chapman wa NHS Digital anakubali hatari ya asili ya utambulisho upya, hata kwa data iliyotambuliwa. Ingawa vitambulisho vya moja kwa moja vimeondolewa, utajiri wa data ya afya hufanya iwe vigumu kuhakikisha kutokujulikana kamili.
Ili kukabiliana na hatari hii, Chapman alisema kuwa AI inafanya kazi ndani ya mazingira “salama” ya data ya NHS, kuzuia uvujaji wa habari na kuhakikisha upatikanaji tu kwa watafiti waliokubaliwa. Amazon Web Services na Databricks hutoa miundombinu ya kompyuta lakini hawawezi kupata data.
Yves-Alexandre de Montjoye wa Chuo cha Imperial London anapendekeza kuthibitisha uwezo wa modeli wa kukariri data ya mafunzo ili kugundua uvujaji wa habari. Alipoulizwa na New Scientist, Tomlinson alikiri kwamba timu ya Foresight haijafanya majaribio haya lakini ilipanga kufanya hivyo katika siku zijazo.
Imani ya Umma na Matumizi ya Data
Caroline Green wa Chuo Kikuu cha Oxford anasisitiza umuhimu wa kuwasiliana matumizi ya data kwa umma ili kudumisha uaminifu. Licha ya juhudi za kutokujulikana, watu kwa ujumla wanataka kudhibiti data yao na kuelewa marudio yake, ambayo huwafanya wahisi nguvu sana kuhusu maadili yake.
Udhibiti wa sasa unatoa chaguzi ndogo kwa watu binafsi kujiondoa katika matumizi ya data na Foresight. Data kutoka kwa hifadhidata za NHS zilizokusanywa kitaifa hutumiwa kufunza modeli, na taratibu zilizopo za kujiondoa hazitumiki kwa sababu data “imetambuliwa,” kulingana na msemaji wa NHS England. Hata hivyo, watu ambao wamejiondoa katika kushiriki data kutoka kwa daktari wao wa familia hawatajumuishwa data yao katika modeli.
GDPR na Utotambulisho wa Data
Kanuni ya Jumla ya Ulinzi wa Data (GDPR) inaagiza kwamba watu binafsi wana chaguo la kuondoa idhini ya matumizi ya data zao za kibinafsi. Hata hivyo, mchakato wa mafunzo ya LLMs kama vile Foresight hufanya iwezekanavyo kuondoa rekodi moja kutoka kwa zana ya AI. Msemaji wa NHS England anadai kwamba GDPR haitumiki kwa sababu data iliyotumika kufunza modeli imetambuliwa na haichukuliwi kuwa data ya kibinafsi.
Tovuti ya Ofisi ya Kamishna wa Habari wa Uingereza inafafanua kuwa data “iliyotambuliwa” haipaswi kutumiwa kwa kubadilishana na data isiyojulikana, kwani sheria ya ulinzi wa data ya Uingereza haielezei neno hilo, na matumizi yake yanaweza kusababisha machafuko.
Msimamo wa kisheria unazidi kuwa mgumu na matumizi ya sasa ya Foresight kwa utafiti unaohusiana na COVID-19, ambayo inaruhusu isipokuwa kwa sheria za ulinzi wa data zilizotungwa wakati wa janga, kulingana na Sam Smith wa medConfidential. Smith anadai kwamba AI ya COVID-pekee ina uwezekano wa kuwa na data ya mgonjwa iliyoingizwa ambayo haipaswi kuacha maabara, na wagonjwa wanapaswa kuwa na udhibiti juu ya matumizi ya data yao.
Masuala ya Kimaadili
Masuala ya kimaadili yanayozunguka matumizi ya data ya matibabu kwa ajili ya maendeleo ya AI yanaweka Foresight katika nafasi hatari. Green anasema kuwa maadili na masuala ya kibinadamu yanapaswa kuwa mwanzo wa maendeleo ya AI, badala ya wazo la baadaye.
Kuchunguza Wasiwasi Kwa Undani Zaidi
Wasiwasi unaozunguka matumizi ya Foresight ya rekodi za matibabu za NHS unaenea zaidi ya faragha ya data tu. Wanagusa maswali ya msingi kuhusu umiliki wa taarifa za afya za kibinafsi, uwezekano wa upendeleo wa algorithmic, na athari ya muda mrefu ya AI kwenye uhusiano wa daktari na mgonjwa.
Umiliki na Udhibiti wa Data ya Afya
Mojawapo ya matatizo ya msingi ya kimaadili ni kiwango ambacho watu wanapaswa kuwa na udhibiti juu ya data yao ya afya. Ingawa NHS bila shaka inahitaji upatikanaji wa taarifa za mgonjwa ili kutoa huduma bora, matumizi ya data hii kwa ajili ya mafunzo ya AI yanaibua maswali kuhusu kama watu wana taarifa za kutosha na wana uwezo wa kukubali matumizi hayo ya sekondari.
Mbinu za sasa za kujiondoa hazitoshi, kwani hazishughulikii kikamilifu ugumu wa mafunzo ya AI. Hoja kwamba data iliyotambuliwa si tena data ya kibinafsi chini ya GDPR ni tafsiri ya kisheria ambayo inapuuza ukweli kwamba hata data isiyojulikana inaweza kutambuliwa tena au kutumika kuteka hitimisho kuhusu watu binafsi.
Mbinu thabiti zaidi itahusisha kutekeleza mfumo wa idhini yenye taarifa ambayo inaeleza wazi jinsi data ya mgonjwa inavyoweza kutumika kwa ajili ya utafiti na maendeleo ya AI. Hii itahitaji maelezo wazi na yanayoeleweka ya faida na hatari zinazoweza kutokea za matumizi hayo, pamoja na kuwapa watu fursa muhimu ya kuchagua kuingia au kujiondoa.
Upendeleo wa Algorithmic
Wasiwasi mwingine muhimu ni uwezekano wa upendeleo wa algorithmic katika modeli za AI zilizofunzwa kwenye hifadhidata kubwa. Ikiwa data iliyotumika kufunza Foresight inaonyesha tofauti zilizopo za afya, modeli inaweza kuendeleza na hata kuongeza ukosefu huu wa usawa.
Kwa mfano, ikiwa makundi fulani ya idadi ya watu hayawakilishwi vya kutosha katika hifadhidata au ikiwa hali zao za matibabu zinatambuliwa vibaya au hazitibiwi, AI inaweza kuwa sahihi katika kutabiri magonjwa au kulazwa hospitalini kwa makundi haya. Hii inaweza kusababisha upatikanaji usio sawa wa rasilimali za huduma ya afya na uwezekano wa kuzidisha ukosefu wa usawa wa afya uliopo.
Ili kupunguza hatari ya upendeleo wa algorithmic, ni muhimu kuchambua kwa makini data iliyotumika kufunza Foresight na kutambua na kushughulikia upendeleo wowote unaoweza kutokea. Hii inaweza kuhusisha kupima kupita kiasi makundi yasiyowakilishwa, kurekebisha makosa katika data, na kuendeleza algorithms ambazo zimeundwa mahsusi kuwa za haki na usawa.
Athari Kwenye Uhusiano wa Daktari na Mgonjwa
Kuongezeka kwa matumizi ya AI katika huduma ya afya kuna uwezo wa kubadilisha uhusiano wa jadi wa daktari na mgonjwa kwa njia kubwa. Ingawa AI bila shaka inaweza kuwasaidia madaktari katika kufanya maamuzi yenye taarifa zaidi, ni muhimu kuhakikisha kuwa haibadilishi kipengele cha kibinadamu cha huduma.
Wagonjwa wanahitaji kujiamini kwamba madaktari wao wanatumia AI kama zana ya kuboresha uamuzi wao wa kliniki, si kama mbadala wake. Uhusiano wa daktari na mgonjwa unapaswa kubaki kuwa wa uaminifu, huruma, na kufanya maamuzi kwa pamoja.
Ili kulinda uhusiano wa daktari na mgonjwa, ni muhimu kusisitiza umuhimu wa mwingiliano wa kibinadamu na mawasiliano katika huduma ya afya. Madaktari wanapaswa kufunzwa kuwasiliana kwa ufanisi jukumu la AI katika mchakato wao wa kufanya maamuzi na kushughulikia wasiwasi wowote ambao wagonjwa wanaweza kuwa nao.
Kutafuta Njia ya Kusonga Mbele
Kupitia mazingira magumu ya kimaadili na kisheria yanayozunguka AI katika huduma ya afya kunahitaji mbinu ya pande nyingi.
- Uwazi na Ushirikishwaji wa Umma: Wasiliana wazi jinsi data ya mgonjwa inatumiwa na ushirikishe umma katika mijadala kuhusu athari za kimaadili za AI katika huduma ya afya.
- Kuimarisha Ulinzi wa Data: Tekeleza hatua kali za ulinzi wa data ili kupunguza hatari ya utambulisho upya na kuhakikisha kuwa watu wana udhibiti mkubwa juu ya data yao ya afya.
- Kushughulikia Upendeleo wa Algorithmic: Tambua kikamilifu na upunguze upendeleo wa algorithmic katika modeli za AI ili kuhakikisha upatikanaji sawa wa huduma ya afya kwa wote.
- Kutanguliza Huduma Inayozingatia Binadamu: Sisitiza umuhimu wa uhusiano wa daktari na mgonjwa na uhakikishe kuwa AI inatumiwa kama zana ya kuboresha, si kubadilisha, mwingiliano wa kibinadamu.
Kwa kushughulikia wasiwasi huu, tunaweza kutumia uwezo wa mabadiliko wa AI katika huduma ya afya huku tukilinda faragha ya mgonjwa, kukuza usawa, na kuhifadhi kipengele cha kibinadamu cha huduma. Mustakabali wa huduma ya afya unategemea uwezo wetu wa kupitia changamoto hizi kwa uwajibikaji na kimaadili. Ni hapo tu tunaweza kuhakikisha kwamba AI inahudumia maslahi bora ya wagonjwa na jamii kwa ujumla.