Cabaran Sebenar: Membina Aplikasi AI Enterprise
Walaupun sumber yang tidak terhingga dicurahkan untuk melatih Model Bahasa Besar (LLM) setiap tahun, halangan yang ketara masih kekal: mengintegrasikan model-model ini secara berkesan ke dalam aplikasi yang praktikal dan berguna.
Ilusi Fine-Tuning
Fine-tuning dan Retrieval Augmented Generation (RAG) secara amnya dianggap sebagai kaedah yang mantap untuk meningkatkan pengetahuan dan keupayaan model AI pra-latihan. Walau bagaimanapun, Ketua Pegawai Eksekutif Aleph Alpha, Jonas Andrulis, menegaskan bahawa realitinya lebih kompleks.
“Setahun yang lalu, terdapat kepercayaan yang meluas bahawa fine-tuning adalah penyelesaian ajaib. Jika sistem AI tidak berfungsi seperti yang dikehendaki, jawapannya adalah fine-tuning. Ia tidak semudah itu,” jelasnya.
Walaupun fine-tuning boleh mengubah gaya atau tingkah laku model, ia bukanlah pendekatan yang paling berkesan untuk mengajar maklumat baharu. Jangkaan bahawa fine-tuning sahaja boleh menyelesaikan semua isu aplikasi AI adalah salah tanggapan.
RAG: Pendekatan Alternatif
RAG menawarkan alternatif dengan berfungsi seperti pustakawan yang mendapatkan semula maklumat dari arkib luaran. Pendekatan ini membolehkan kemas kini dan perubahan kepada maklumat dalam pangkalan data tanpa melatih semula atau fine-tuning model. Selain itu, hasil yang dijana boleh dipetik dan diaudit untuk ketepatan.
“Pengetahuan khusus harus sentiasa didokumentasikan dan tidak disimpan dalam parameter LLM,” tegas Andrulis.
Walaupun RAG menyediakan banyak manfaat, kejayaannya bergantung pada dokumentasi yang betul bagi proses, prosedur dan pengetahuan institusi utama dalam format yang boleh difahami oleh model. Malangnya, ini sering tidak berlaku.
Walaupun dokumentasi wujud, perusahaan mungkin menghadapi masalah jika dokumen atau proses bergantung pada data luar taburan – data yang berbeza dengan ketara daripada data yang digunakan untuk melatih model asas. Contohnya, model yang dilatih semata-mata pada set data Bahasa Inggeris akan bergelut dengan dokumentasi Bahasa Jerman, terutamanya jika ia mengandungi formula saintifik. Dalam banyak kes, model mungkin tidak dapat mentafsir data sama sekali.
Oleh itu, Andrulis mencadangkan bahawa gabungan fine-tuning dan RAG biasanya diperlukan untuk mencapai hasil yang bermakna. Pendekatan hibrid ini memanfaatkan kekuatan kedua-dua kaedah untuk mengatasi batasan individu mereka.
Merapatkan Jurang
Aleph Alpha menyasarkan untuk membezakan dirinya sebagai DeepMind Eropah dengan menangani cabaran yang menghalang perusahaan dan negara daripada membangunkan AI berdaulat mereka sendiri.
AI berdaulat merujuk kepada model yang dilatih atau ditala halus menggunakan set data dalaman negara pada perkakasan yang dibina atau digunakan dalam sempadannya. Pendekatan ini memastikan privasi, keselamatan dan kawalan data, yang penting bagi banyak organisasi dan kerajaan.
“Kami berusaha untuk menjadi sistem pengendalian, asas bagi perusahaan dan kerajaan untuk membina strategi AI berdaulat mereka sendiri,” kata Andrulis. “Kami berhasrat untuk berinovasi di mana perlu, sambil juga memanfaatkan sumber terbuka dan teknologi terkini di mana mungkin.”
Walaupun ini kadangkala melibatkan model latihan, seperti Pharia-1-LLM Aleph, Andrulis menegaskan bahawa mereka tidak cuba meniru model sedia ada seperti Llama atau DeepSeek. Tumpuan mereka adalah untuk mencipta penyelesaian unik yang menangani cabaran khusus.
“Saya sentiasa mengarahkan penyelidikan kami untuk menumpukan pada perkara yang berbeza secara bermakna, bukan hanya menyalin apa yang orang lain lakukan, kerana itu sudah wujud,” kata Andrulis. “Kami tidak perlu membina Llama atau DeepSeek lain kerana ia sudah wujud.”
Sebaliknya, Aleph Alpha menumpukan pada membina rangka kerja yang memudahkan dan memperkemas penggunaan teknologi ini. Contoh terbaru ialah seni bina latihan tanpa tokenizer mereka, atau “T-Free,” yang bertujuan untuk fine-tuning model yang boleh memahami data luar taburan dengan lebih cekap.
Pendekatan berasaskan tokenizer tradisional sering memerlukan kuantiti data luar taburan yang besar untuk fine-tuning model dengan berkesan. Ini memerlukan pengiraan yang mahal dan menganggap bahawa data yang mencukupi tersedia.
Seni bina T-Free Aleph Alpha memintas isu ini dengan menghapuskan tokenizer. Ujian awal pada Pharia LLM mereka dalam bahasa Finland menunjukkan pengurangan 70 peratus dalam kos latihan dan jejak karbon berbanding dengan pendekatan berasaskan tokenizer. Pendekatan inovatif ini menjadikan fine-tuning lebih mudah diakses dan mampan.
Aleph Alpha juga telah membangunkan alat untuk menangani jurang dalam pengetahuan yang didokumentasikan yang boleh membawa kepada kesimpulan yang tidak tepat atau tidak membantu.
Sebagai contoh, jika dua kontrak yang berkaitan dengan soalan pematuhan bercanggah antara satu sama lain, “sistem boleh mendekati manusia dan berkata, ‘Saya menemui percanggahan… bolehkah anda memberikan maklum balas sama ada ini adalah konflik sebenar?’” jelas Andrulis.
Maklumat yang dikumpulkan melalui rangka kerja ini, yang dipanggil Pharia Catch, boleh dimasukkan semula ke dalam pangkalan pengetahuan aplikasi atau digunakan untuk fine-tuning model yang lebih berkesan. Gelung maklum balas ini meningkatkan ketepatan dan kebolehpercayaan sistem AI dari masa ke masa.
Menurut Andrulis, alat ini telah menarik rakan kongsi seperti PwC, Deloitte, Capgemini dan Supra, yang bekerjasama dengan pelanggan akhir untuk melaksanakan teknologi Aleph Alpha. Perkongsian ini menunjukkan nilai dan kepraktisan penyelesaian Aleph Alpha dalam aplikasi dunia sebenar.
Faktor Perkakasan
Perisian dan data bukan satu-satunya cabaran yang dihadapi oleh pengambil AI Berdaulat. Perkakasan adalah satu lagi pertimbangan kritikal.
Perusahaan dan negara yang berbeza mungkin mempunyai keperluan khusus untuk dijalankan pada perkakasan yang dibangunkan di dalam negara atau mungkin hanya menentukan tempat beban kerja boleh dijalankan. Kekangan ini boleh menjejaskan pilihan perkakasan dan infrastruktur dengan ketara.
Ini bermakna Andrulis dan pasukannya mesti menyokong pelbagai pilihan perkakasan. Aleph Alpha telah menarik sekumpulan rakan kongsi perkakasan yang pelbagai, termasuk AMD, Graphcore dan Cerebras.
Bulan lepas, Aleph Alpha mengumumkan perkongsian dengan AMD untuk menggunakan pemecut siri MI300nya. Kerjasama ini akan memanfaatkan perkakasan termaju AMD untuk mempercepatkan latihan dan inferens AI.
Andrulis juga menekankan kerjasama dengan Graphcore, yang diperoleh oleh Softbank, dan Cerebras, yang pemecut skala wafer CS-3nya digunakan untuk melatih model AI untuk angkatan tentera Jerman. Perkongsian ini menunjukkan komitmen Aleph Alpha untuk bekerjasama dengan pelbagai pembekal perkakasan untuk memenuhi keperluan khusus pelanggannya.
Walaupun terdapat kerjasama ini, Andrulis menegaskan bahawa matlamat Aleph Alpha bukanlah untuk menjadi perkhidmatan terurus atau pembekal awan. “Kami tidak akan menjadi pembekal awan,” katanya. “Saya mahu pelanggan saya bebas dan tanpa terkunci.” Komitmen terhadap kebebasan dan fleksibiliti pelanggan ini membezakan Aleph Alpha daripada banyak syarikat AI yang lain.
Hala Tuju Masa Depan: Peningkatan Kerumitan
Melihat ke hadapan, Andrulis menjangkakan bahawa membina aplikasi AI akan menjadi lebih kompleks apabila industri beralih daripada chatbot kepada sistem AI beragent yang mampu menyelesaikan masalah yang lebih canggih.
AI beragent telah mendapat perhatian yang ketara sejak setahun lalu, dengan pembina model, pembangun perisian dan vendor perkakasan menjanjikan sistem yang boleh menyelesaikan proses berbilang langkah secara tak serentak. Contoh awal termasuk Operator OpenAI dan API penggunaan komputer Anthropic. Sistem AI beragent ini mewakili kemajuan yang ketara dalam keupayaan AI.
“Tahun lepas, kami terutamanya menumpukan pada tugas mudah seperti meringkaskan dokumen atau bantuan penulisan,” katanya. “Kini, ia menjadi lebih menarik dengan perkara yang, pada pandangan pertama, nampaknya tidak menjadi masalah genAI, di mana pengalaman pengguna bukanlah chatbot.” Peralihan ke arah aplikasi AI yang lebih kompleks dan bersepadu ini membentangkan cabaran dan peluang baharu untuk industri.
Cabaran Utama dalam Membina Aplikasi AI Enterprise:
- Merapatkan jurang antara latihan model dan penyepaduan aplikasi: Menterjemah keupayaan LLM secara berkesan ke dalam aplikasi praktikal kekal sebagai halangan yang ketara.
- Mengatasi batasan fine-tuning: Fine-tuning sahaja seringkali tidak mencukupi untuk mengajar model AI maklumat baharu atau menyesuaikannya dengan tugas tertentu.
- Memastikan kualiti dan kebolehcapaian data: RAG bergantung pada data yang didokumentasikan dengan baik dan mudah diakses, yang seringkali kurang dalam banyak organisasi.
- Mengendalikan data luar taburan: Model AI mesti dapat mengendalikan data yang berbeza daripada data yang dilatih, yang memerlukan teknik khusus.
- Menangani kekangan perkakasan: Perusahaan dan negara yang berbeza mempunyai keperluan perkakasan yang berbeza yang mesti diambil kira.
- Mengekalkan privasi dan keselamatan data: AI berdaulat memerlukan memastikan bahawa data diproses dan disimpan dengan selamat dalam sempadan negara.
- Membangunkan sistem AI beragent: Membina aplikasi AI yang boleh melaksanakan proses berbilang langkah yang kompleks secara tak serentak merupakan bidang penyelidikan yang mencabar tetapi menjanjikan.
Peluang Utama dalam Membina Aplikasi AI Enterprise:
- Membangunkan penyelesaian AI yang inovatif: Cabaran dalam membina aplikasi AI enterprise mewujudkan peluang untuk membangunkan penyelesaian inovatif yang menangani keperluan khusus.
- Memanfaatkan teknologi sumber terbuka: Teknologi sumber terbuka boleh membantu mengurangkan kos dan mempercepatkan pembangunan aplikasi AI.
- Bekerjasama dengan rakan kongsi perkakasan: Bekerjasama dengan rakan kongsi perkakasan boleh membantu memastikan bahawa aplikasi AI dioptimumkan untuk platform perkakasan tertentu.
- Membina keupayaan AI berdaulat: AI berdaulat boleh menyediakan negara dan organisasi dengan kawalan yang lebih besar ke atas data dan infrastruktur AI mereka.
- Mengubah industri dengan AI: AI berpotensi untuk mengubah industri dengan mengautomasikan tugas, meningkatkan pembuatan keputusan dan mencipta produk dan perkhidmatan baharu.
Masa Depan Aplikasi AI Enterprise:
Masa depan aplikasi AI enterprise berkemungkinan dicirikan oleh:
- Peningkatan kerumitan: Aplikasi AI akan menjadi lebih kompleks dan bersepadu, memerlukan kepakaran dan alat khusus.
- Tumpuan yang lebih besar pada kualiti data: Kualiti data akan menjadi semakin penting kerana aplikasi AI bergantung pada data yang tepat dan boleh dipercayai.
- Lebih penekanan pada keselamatan dan privasi: Keselamatan dan privasi akan menjadi yang terpenting kerana aplikasi AI mengendalikan data sensitif.
- Penggunaan AI beragent yang lebih luas: Sistem AI beragent akan menjadi lebih lazim apabila organisasi berusaha untuk mengautomasikan tugas yang kompleks.
- Inovasi berterusan: Bidang AI akan terus berkembang pesat, membawa kepada penemuan dan peluang baharu.
Dengan menangani cabaran dan menerima peluang, organisasi boleh memanfaatkan kuasa AI untuk mengubah perniagaan mereka dan mencipta masa depan yang lebih baik.