Jalankan LLM Lokal: DeepSeek di Mac Anda

Ketertarikan pada AI tidak dapat disangkal. ChatGPT, Gemini Google, dan Apple Intelligence yang akan datang menawarkan kemampuan yang belum pernah terjadi sebelumnya, tetapi mereka berbagi ketergantungan penting: koneksi internet yang persisten. Bagi individu yang memprioritaskan privasi, mencari peningkatan kinerja, atau bertujuan untuk menyesuaikan interaksi AI mereka, menjalankan Large Language Models (LLM) seperti DeepSeek, Gemma Google, atau Llama Meta secara langsung di Mac mereka menghadirkan alternatif yang menarik.

Gagasan menjalankan LLM secara lokal mungkin tampak menakutkan, namun dengan alat yang tepat, itu sangat mudah diakses. Panduan ini menjelaskan proses menjalankan DeepSeek dan LLM terkemuka lainnya secara lokal di Mac Anda, yang memerlukan keahlian teknis minimal.

Keuntungan Menjalankan LLM Secara Lokal

Peningkatan Privasi dan Keamanan

Keuntungan utama menjalankan LLM secara lokal terletak pada peningkatan privasi dan keamanan yang diberikannya. Dengan beroperasi secara independen dari server eksternal, Anda mempertahankan kendali penuh atas data Anda, memastikan bahwa informasi sensitif tetap berada di dalam lingkungan aman Anda. Ini sangat penting saat menangani data rahasia atau eksklusif.

Kinerja Unggul dan Efisiensi Biaya

Menjalankan LLM secara lokal menawarkan keunggulan kinerja dengan menghilangkan latensi yang terkait dengan pemrosesan berbasis cloud. Ini berarti waktu respons lebih cepat dan pengalaman pengguna yang lebih mulus. Selain itu, itu menghilangkan biaya API berulang yang terkait dengan layanan LLM berbasis cloud, menghasilkan penghematan biaya yang signifikan dari waktu ke waktu.

Pengalaman AI yang Disesuaikan

Menjalankan LLM secara lokal memungkinkan Anda untuk melatih mereka dengan data eksklusif, menyesuaikan respons mereka agar selaras secara tepat dengan kebutuhan spesifik Anda. Kustomisasi ini membuka tingkat utilitas AI baru, memungkinkan Anda membuat solusi AI yang sangat khusus yang memenuhi kebutuhan unik Anda. Bagi para profesional yang ingin memanfaatkan DeepSeek atau LLM lainnya untuk tugas-tugas terkait pekerjaan, pendekatan ini dapat meningkatkan produktivitas dan efisiensi secara signifikan.

Memberdayakan Pengembang

Untuk pengembang, menjalankan LLM secara lokal menyediakan lingkungan sandbox untuk eksperimen dan eksplorasi. Dengan menjalankan LLM secara lokal, pengembang dapat memperoleh pemahaman yang lebih mendalam tentang kemampuan mereka dan mengidentifikasi cara-cara inovatif untuk mengintegrasikannya ke dalam alur kerja mereka. Dengan keahlian teknis yang diperlukan, pengembang bahkan dapat memanfaatkan model AI ini untuk membangun alat agentic, mengotomatiskan tugas dan merampingkan proses.

Persyaratan Minimum untuk Menjalankan LLM Secara Lokal di Mac

Bertentangan dengan kepercayaan populer, menjalankan LLM secara lokal tidak memerlukan Mac kelas atas yang dilengkapi dengan banyak RAM. Sangat mungkin untuk menjalankan LLM secara lokal di Mac bertenaga silikon Apple apa pun dengan setidaknya 16GB memori sistem. Meskipun 8GB memori secara teknis mencukupi, kinerja sistem akan sangat terganggu.

Penting untuk memahami bahwa LLM tersedia dalam berbagai konfigurasi, masing-masing dengan jumlah parameter yang berbeda. Semakin banyak parameter yang dimiliki LLM, semakin kompleks dan cerdas ia. Namun, ini juga berarti bahwa model AI akan membutuhkan lebih banyak ruang penyimpanan dan sumber daya sistem untuk berjalan secara efektif. Misalnya, Llama Meta ditawarkan dalam beberapa varian, termasuk yang memiliki 70 miliar parameter. Untuk menjalankan model ini, Anda memerlukan Mac dengan lebih dari 40GB ruang penyimpanan kosong dan lebih dari 48GB memori sistem.

Untuk kinerja optimal, pertimbangkan untuk menjalankan LLM seperti DeepSeek dengan 7 miliar atau 8 miliar parameter. Ini harus berjalan lancar di Mac dengan 16GB memori sistem. Jika Anda memiliki akses ke Mac yang lebih kuat, Anda dapat bereksperimen dengan model yang lebih sesuai dengan kebutuhan spesifik Anda.

Saat memilih LLM, penting untuk mempertimbangkan kasus penggunaan yang Anda inginkan. Beberapa LLM unggul dalam tugas penalaran, sementara yang lain lebih cocok untuk kueri pengkodean. Beberapa dioptimalkan untuk percakapan terkait STEM, sementara yang lain dirancang untuk percakapan multi-giliran dan koherensi konteks panjang.

LM Studio: Solusi Ramah Pengguna untuk Menjalankan LLM Secara Lokal

Bagi mereka yang mencari cara yang mudah diakses untuk menjalankan LLM seperti DeepSeek dan Llama secara lokal di Mac mereka, LM Studio adalah titik awal yang sangat baik. Perangkat lunak ini tersedia secara gratis untuk penggunaan pribadi.

Berikut adalah panduan langkah demi langkah untuk memulai dengan LM Studio:

  1. Unduh dan Instal LM Studio: Unduh LM Studio dari situs web resminya dan instal di Mac Anda. Setelah diinstal, luncurkan aplikasi.

  2. Pemilihan Model:

    • Jika tujuan utama Anda adalah menjalankan DeepSeek secara lokal, Anda dapat menyelesaikan proses orientasi dan mengunduh model.
    • Atau, Anda dapat melewati proses orientasi dan langsung mencari LLM yang ingin Anda unduh dan instal. Untuk melakukan ini, klik bilah pencarian di bagian atas LM Studio, yang meminta Anda untuk ‘Pilih model untuk dimuat’.
    • Anda juga dapat menelusuri daftar LLM yang tersedia dengan mengklik roda gigi Pengaturan di sudut kanan bawah LM Studio. Di jendela yang muncul, pilih tab ‘Pencarian Model’ di sebelah kiri. Anda juga dapat langsung mengakses jendela ini menggunakan pintasan keyboard Command + Shift + M.
  3. Unduh Model:

    • Di jendela Pencarian Model, Anda akan melihat daftar lengkap model AI yang tersedia untuk diunduh.
    • Jendela di sebelah kanan memberikan informasi rinci tentang setiap model, termasuk deskripsi singkat dan batas tokennya.
    • Pilih LLM yang ingin Anda gunakan, seperti DeepSeek, Llama Meta, Qwen, atau phi-4.
    • Klik tombol ‘Unduh’ di sudut kanan bawah untuk memulai proses pengunduhan.
    • Perhatikan bahwa meskipun Anda dapat mengunduh beberapa LLM, LM Studio hanya dapat memuat dan menjalankan satu model dalam satu waktu.

Menggunakan LLM yang Anda Unduh

Setelah unduhan LLM selesai, tutup jendela Mission Control LM Studio. Kemudian, klik bilah pencarian di bagian atas dan muat LLM yang baru diunduh.

Saat memuat model AI, LM Studio memungkinkan Anda untuk mengonfigurasi berbagai pengaturan, termasuk panjang konteks dan ukuran kumpulan utas CPU-nya. Jika Anda tidak yakin tentang pengaturan ini, Anda dapat membiarkannya pada nilai defaultnya.

Anda sekarang dapat mulai berinteraksi dengan LLM dengan mengajukan pertanyaan atau menggunakannya untuk berbagai tugas.

LM Studio memungkinkan Anda untuk mempertahankan beberapa obrolan terpisah dengan LLM. Untuk memulai percakapan baru, klik ikon ‘+’ di toolbar di bagian atas. Fitur ini sangat berguna jika Anda secara bersamaan menggunakan LLM untuk beberapa proyek. Anda juga dapat membuat folder untuk mengatur obrolan Anda.

Mengelola Sumber Daya Sistem

Jika Anda khawatir tentang model AI yang menghabiskan sumber daya sistem yang berlebihan, Anda dapat menyesuaikan pengaturan LM Studio untuk mengurangi ini.

Akses pengaturan LM Studio menggunakan pintasan keyboard Command + ,. Kemudian, pastikan bahwa pengaturan ‘Pembatas pemuatan model’ diatur ke ‘Ketat’. Pengaturan ini akan mencegah LLM membebani Mac Anda.

Anda dapat memantau penggunaan sumber daya LM Studio dan LLM yang diunduh di toolbar bawah. Jika penggunaan CPU atau memori terlalu tinggi, pertimbangkan untuk beralih ke model AI dengan jumlah parameter yang lebih rendah untuk mengurangi konsumsi sumber daya.

Pertimbangan Kinerja

Kinerja LLM yang berjalan secara lokal dapat bervariasi tergantung pada beberapa faktor, termasuk spesifikasi perangkat keras Mac, ukuran LLM, dan kompleksitas tugas yang dilakukan.

Meskipun Mac silikon Apple yang lebih lama pun dapat menjalankan LLM dengan lancar, Mac yang lebih baru dengan lebih banyak memori sistem dan prosesor yang kuat umumnya akan memberikan kinerja yang lebih baik.

Manajemen Penyimpanan

Untuk mencegah penyimpanan Mac Anda terisi dengan cepat, penting untuk menghapus LLM yang tidak diinginkan setelah Anda selesai bereksperimen dengannya. LLM bisa sangat besar, jadi mengunduh beberapa model dapat dengan cepat menghabiskan sejumlah besar ruang penyimpanan.

Di Luar LM Studio: Menjelajahi Opsi Lain

Meskipun LM Studio menyediakan cara yang nyaman dan ramah pengguna untuk menjalankan LLM secara lokal, itu bukan satu-satunya opsi yang tersedia. Alat dan kerangka kerja lain, seperti llama.cpp, menawarkan fitur yang lebih canggih dan opsi penyesuaian. Namun, opsi ini biasanya memerlukan lebih banyak keahlian teknis untuk diatur dan digunakan.

Masa Depan AI Lokal

Kemampuan untuk menjalankan LLM secara lokal siap untuk merevolusi cara kita berinteraksi dengan AI. Karena LLM menjadi lebih efisien dan mudah diakses, kita dapat mengharapkan proliferasi aplikasi AI lokal yang memberdayakan pengguna dengan privasi, kontrol, dan penyesuaian yang lebih besar.

Apakah Anda seorang individu yang sadar privasi, seorang pengembang yang ingin bereksperimen dengan AI, atau seorang profesional yang ingin meningkatkan produktivitas Anda, menjalankan LLM secara lokal di Mac Anda membuka dunia kemungkinan.