अलीबाबाच्या QwQ ची डीपसीक-R1 ला टक्कर?

জায়ান্টসদের आव्हान: একটি কম্প্যাক্ট প্রতিযোগী

QwQ, DeepSeek R1 এর কথিত 671 বিলিয়নের তুলনায় মাত্র 32 বিলিয়ন প্যারামিটার নিয়ে গর্ব করা সত্ত্বেও, একটি “যুক্তিনির্ভর” মডেল হিসাবে অবস্থান করছে। আলিবাবা জোর দিয়ে বলেছেন যে এই তুলনামূলকভাবে ছোট মডেলটি নির্দিষ্ট মানদণ্ডে, বিশেষ করে গণিত, কোডিং এবং ফাংশন-কলিংয়ের মতো ক্ষেত্রগুলিতে R1 কে ছাড়িয়ে যেতে পারে। এই উচ্চাভিলাষী দাবির কারণে QwQ-এর অভ্যন্তরীণ কার্যকারিতা এবং বাস্তব-বিশ্বের কর্মক্ষমতা ঘনিষ্ঠভাবে পর্যবেক্ষণ করা প্রয়োজন।

রিইনফোর্সমেন্ট লার্নিং: QwQ এর দক্ষতার চাবিকাঠি

DeepSeek R1-এর মতোই, Qwen টিম QwQ-এর চেইন-অফ-থট রিজনিং ক্ষমতাকে পরিমার্জিত করতে রিইনফোর্সমেন্ট লার্নিং (RL) ব্যবহার করেছে। এই পদ্ধতি মডেলটির ধাপে ধাপে জটিল সমস্যা বিশ্লেষণ এবং ভেঙে ফেলার ক্ষমতা বাড়ায়। RL-এ প্রথাগত পদ্ধতি হল সঠিক উত্তরের জন্য মডেলকে পুরস্কৃত করা, এইভাবে সঠিক প্রতিক্রিয়াগুলিকে শক্তিশালী করা।

যাইহোক, Qwen টিম QwQ এর সাথে আরও সূক্ষ্ম পদ্ধতি নিয়েছে। তারা একটি নির্ভুলতা যাচাইকারী এবং একটি কোড এক্সিকিউশন সার্ভারকে একত্রিত করেছে। এই গুরুত্বপূর্ণ সংযোজন নিশ্চিত করে যে পুরষ্কারগুলি শুধুমাত্র গাণিতিকভাবে সঠিক সমাধান এবং কার্যকরী কোডের জন্য দেওয়া হয়। এই কঠোর যাচাইকরণ প্রক্রিয়া বাস্তবায়নের মাধ্যমে, টিমের লক্ষ্য একটি মডেল তৈরি করা যা উচ্চতর নির্ভুলতা এবং নির্ভরযোগ্যতা প্রদর্শন করে।

পারফরম্যান্স দাবি: একটি বাস্তবতা পরীক্ষা

Qwen টিমের প্রচেষ্টা, তারা দাবি করে, এমন একটি মডেল তৈরি করেছে যা তার ওজন শ্রেণীর চেয়ে উল্লেখযোগ্যভাবে বেশি শক্তিশালী। তারা জোর দিয়ে বলছেন যে QwQ পারফরম্যান্সের স্তর অর্জন করে, এবং কিছু ক্ষেত্রে, অনেক বড় মডেলকেও ছাড়িয়ে যায়।

যাইহোক, AI বেঞ্চমার্কের জগৎ জটিল হতে পারে। রিপোর্টিত পরিসংখ্যানের বাইরে গিয়ে এই দাবিগুলি ব্যবহারিক, বাস্তব-বিশ্বের পরিস্থিতিতে কীভাবে অনুবাদ করে তা পরীক্ষা করা অত্যন্ত গুরুত্বপূর্ণ।

হ্যান্ডস-অন টেস্টিং: QwQ-কে তার গতির মধ্য দিয়ে নিয়ে যাওয়া

QwQ-এর ক্ষমতা মূল্যায়ন করার জন্য, বিভিন্ন ডোমেন জুড়ে বিস্তৃত পরীক্ষার প্রম্পট ডিজাইন করা হয়েছিল। এর মধ্যে সাধারণ জ্ঞান, স্থানিক যুক্তি, সমস্যা-সমাধান, গণিত এবং অন্যান্য চ্যালেঞ্জগুলি অন্তর্ভুক্ত ছিল যা এমনকি সবচেয়ে উন্নত বৃহৎ ভাষা মডেল (LLMs) গুলির জন্যও অসুবিধা সৃষ্টি করে।

সম্পূর্ণ মডেলের যথেষ্ট মেমরির প্রয়োজনীয়তার কারণে, পরীক্ষা দুটি কনফিগারেশনে চালানো হয়েছিল। প্রথমত, Hugging Face-এ QwQ ডেমো ব্যবহার করে সম্পূর্ণ মডেলটি মূল্যায়ন করা হয়েছিল। এটি তার পূর্ণ সম্ভাবনার মূল্যায়ন করার অনুমতি দেয়। দ্বিতীয়ত, একটি 24GB GPU (বিশেষত, একটি Nvidia 3090 বা একটি AMD Radeon RX 7900XTX) তে একটি 4-বিট কোয়ান্টাইজড সংস্করণ পরীক্ষা করা হয়েছিল। এই কনফিগারেশনের লক্ষ্য ছিল মডেলের নির্ভুলতার উপর কোয়ান্টাইজেশনের প্রভাব পরিমাপ করা, এটিকে কম শক্তিশালী হার্ডওয়্যার সহ ব্যবহারকারীদের কাছে আরও অ্যাক্সেসযোগ্য করে তোলা।

সাধারণ জ্ঞান: নিজের জায়গা ধরে রাখা

বেশিরভাগ সাধারণ জ্ঞানের প্রশ্নের উত্তরে, QwQ DeepSeek-এর 671-বিলিয়ন-প্যারামিটার R1 এবং OpenAI-এর o3-mini-এর মতো অন্যান্য রিজনিং মডেলের সাথে তুলনীয় পারফরম্যান্স প্রদর্শন করেছে। প্রশ্নের উত্তর দেওয়ার আগে মডেলটি সাধারণত তার চিন্তাগুলিকে গঠন করতে কয়েক সেকেন্ড সময় নেয়। এই আচরণটি রিজনিং মডেলগুলির বৈশিষ্ট্য, যা তাৎক্ষণিক প্রতিক্রিয়ার চেয়ে সতর্ক আলোচনাকে অগ্রাধিকার দেয়।

জটিলতায় শ্রেষ্ঠত্ব: যুক্তি, কোডিং এবং গণিত

যেখানে QwQ সত্যিই নিজেকে আলাদা করতে শুরু করে তা হল যুক্তি, কোডিং বা গণিত জড়িত আরও জটিল চ্যালেঞ্জ মোকাবেলা করা। আসুন এই ক্ষেত্রগুলিতে গভীরভাবে অনুসন্ধান করি, এর শক্তিগুলি তুলে ধরি এবং কিছু ক্ষেত্র যেখানে এটি কম পড়ে তা আলোচনা করি।

স্থানিক যুক্তি: গোলকধাঁধায় নেভিগেট করা

QwQ মূল্যায়নের জন্য Homebrew Research তাদের AlphaMaze প্রকল্পের অংশ হিসাবে তৈরি করা একটি তুলনামূলকভাবে নতুন স্থানিক-যুক্তিনির্ভর পরীক্ষা ব্যবহার করা হয়েছিল।

স্থানীয়ভাবে হোস্ট করা QwQ ইন্সট্যান্স এবং পূর্ণ-আকারের মডেল উভয়ই ধারাবাহিকভাবে এই ধাঁধাগুলি সফলভাবে সমাধান করেছে। যাইহোক, প্রতিটি রান সম্পূর্ণ হতে কয়েক মিনিট সময় নেয়। এটি ইঙ্গিত দেয় যে QwQ স্থানিক যুক্তি কার্যকরভাবে পরিচালনা করতে পারলেও, এটি দ্রুততম নয়।

বিপরীতে, DeepSeek-এর R1 এবং এর 32B ডিস্টীল বিভিন্ন আচরণ প্রদর্শন করেছে। উভয় মডেলই প্রথম গোলকধাঁধা সফলভাবে সমাধান করেছে। যাইহোক, R1 দ্বিতীয়টির সাথে লড়াই করেছিল, যেখানে 32B ডিস্টীল দ্বিতীয় গোলকধাঁধায় 90% সাফল্যের হার অর্জন করেছে। এই পরিবর্তনশীলতা সম্পূর্ণরূপে অপ্রত্যাশিত নয়, কারণ R1 এবং ডিস্টীল স্বতন্ত্র বেস মডেল ব্যবহার করে।

যদিও QwQ এই নির্দিষ্ট পরীক্ষায় DeepSeek-এর তুলনায় উচ্চতর পারফরম্যান্স প্রদর্শন করেছে, 4-বিট মডেলের সাথে কিছু অস্বাভাবিক আচরণ পরিলক্ষিত হয়েছে। প্রাথমিকভাবে, পরীক্ষাটি সম্পূর্ণ করার জন্য এটির প্রায় দ্বিগুণ সংখ্যক “চিন্তা” টোকেন প্রয়োজন। এটি প্রাথমিকভাবে কোয়ান্টাইজেশনের কারণে সম্ভাব্য ক্ষতির ইঙ্গিত দেয়। যাইহোক, আরও তদন্তে দেখা গেছে যে কোয়ান্টাইজড মডেলটি তার প্রাথমিক অবস্থায়, নিম্নমানের পারফরম্যান্স প্রদর্শন করছিল। হাইপারপ্যারামিটারগুলি সামঞ্জস্য করা এবং পুনরায় পরীক্ষা চালানো এই সমস্যার সমাধান করেছে, যা সঠিক কনফিগারেশনের গুরুত্ব প্রদর্শন করে।

ওয়ান-শট কোডিং: একটি সম্ভাব্য শক্তি

QwQ “ওয়ান-শট” কোড জেনারেশনের জন্য যথেষ্ট মনোযোগ আকর্ষণ করেছে - প্রথম প্রচেষ্টায় ব্যবহারযোগ্য কোড তৈরি করার ক্ষমতা। এই বিশেষ ক্ষেত্রটি মডেলের জন্য একটি উল্লেখযোগ্য শক্তি বলে মনে হচ্ছে।

মডেলটিকে পাইথন (Python)-এ pygame লাইব্রেরি ব্যবহার করে কয়েকটি তুলনামূলকভাবে সহজ গেম পুনরায় তৈরি করার দায়িত্ব দেওয়া হয়েছিল। নির্বাচিত গেমগুলি হল পং, ব্রেকআউট, অ্যাস্টেরয়েডস এবং ফ্ল্যাপি বার্ড।

QwQ পং এবং ব্রেকআউট অপেক্ষাকৃত সহজে পরিচালনা করেছে। কয়েক মিনিটের প্রক্রিয়াকরণের পরে, মডেলটি উভয় গেমের কার্যকরী সংস্করণ তৈরি করেছে।

যাইহোক, অ্যাস্টেরয়েডস পুনরায় তৈরি করার সময়, QwQ অসুবিধার সম্মুখীন হয়েছিল। যদিও জেনারেট করা কোডটি চলেছিল, গ্রাফিক্স এবং গেম মেকানিক্স প্রায়শই বিকৃত এবং ত্রুটিপূর্ণ ছিল। বিপরীতে, R1, তার প্রথম প্রচেষ্টায়, বিশ্বস্ততার সাথে ক্লাসিক আর্কেড শ্যুটারটি পুনরায় তৈরি করেছে।

এই মডেলগুলির জন্য প্রশিক্ষণের ডেটা বিবেচনা করা গুরুত্বপূর্ণ। তারা প্রচুর পরিমাণে প্রকাশ্যে উপলব্ধ সোর্স কোডের সংস্পর্শে এসেছে, সম্ভবত ক্লাসিক গেমগুলির পুনরুৎপাদন সহ। এটি প্রশ্ন উত্থাপন করে যে মডেলগুলি কেবল শেখা তথ্য স্মরণ করছে নাকি স্বাধীনভাবে স্ক্র্যাচ থেকে গেম মেকানিক্স তৈরি করছে। এটি এই বিশাল নিউরাল নেটওয়ার্কগুলির মৌলিক প্রকৃতিকে বোঝায়, যেখানে আপাত বুদ্ধিমত্তা প্রায়শই ব্যাপক প্যাটার্ন স্বীকৃতি থেকে উদ্ভূত হয়।

এমনকি এই সীমাবদ্ধতা থাকা সত্ত্বেও, ক্লাসিক আর্কেড গেমগুলি পুনরায় তৈরিতে QwQ-এর পারফরম্যান্স চিত্তাকর্ষক, বিশেষ করে এর প্যারামিটার সংখ্যা বিবেচনা করে। এটি প্রতিটি পরীক্ষায় R1-এর সাথে মেলে নাও ধরতে পারে, তবে এটি একটি অসাধারণ স্তরের ক্ষমতা প্রদর্শন করে। “ডিসপ্লেসমেন্টের কোনও প্রতিস্থাপন নেই,” স্বয়ংচালিত বিশ্বে প্রায়শই ব্যবহৃত এই বাক্যাংশটি এখানে প্রাসঙ্গিক হতে পারে। এটি ব্যাখ্যা করতে পারে কেন আলিবাবা QwQ-এর একটি “ম্যাক্স” সংস্করণ তৈরি করছে, যদিও এটি শীঘ্রই কোনও ভোক্তা হার্ডওয়্যারে চালানো সম্ভব হবে না।

DeepSeek-এর অনুরূপ আকারের R1 Qwen 2.5 32B ডিস্টীলের তুলনায়, আলিবাবার রিইনফোর্সমেন্ট লার্নিং পাইপলাইনে একটি কোড এক্সিকিউশন সার্ভারকে একীভূত করার সিদ্ধান্ত প্রোগ্রামিং-সম্পর্কিত চ্যালেঞ্জগুলিতে একটি সুবিধা প্রদান করতে পারে।

গণিত: একটি সতর্কতার সাথে ক্ষমতা

ঐতিহাসিকভাবে, LLM গুলি গণিতের সাথে লড়াই করেছে, যা তাদের ভাষা-কেন্দ্রিক প্রশিক্ষণের ফল। যদিও নতুন মডেলগুলি উন্নতি দেখিয়েছে, QwQ এখনও চ্যালেঞ্জের মুখোমুখি, যদিও কেউ যা আশা করতে পারে তার কারণে নয়।

QwQ পূর্বে R1-এর কাছে উপস্থাপিত সমস্ত গণিত সমস্যা সফলভাবে সমাধান করেছে। এটি ইঙ্গিত দেয় যে QwQ মৌলিক পাটিগণিত এবং এমনকি কিছু বীজগণিত পরিচালনা করতে পারে। যাইহোক, সমস্যাটি এর দক্ষতার মধ্যে রয়েছে। ক্যালকুলেটর এবং সরাসরি গণনা যখন সহজলভ্য এবং উল্লেখযোগ্যভাবে দ্রুত থাকে তখন গাণিতিক গণনার জন্য একটি LLM ব্যবহার করা অযৌক্তিক বলে মনে হয়।
উদাহরণস্বরূপ, 7*43-এর মতো একটি সরল সমীকরণ সমাধান করার জন্য QwQ-কে 1,000-এর বেশি টোকেন তৈরি করতে হয়েছিল, RTX 3090 Ti-তে প্রায় 23 সেকেন্ড সময় লেগেছিল। এটি এমন একটি কাজ যা একটি পকেট ক্যালকুলেটরে কয়েক সেকেন্ডের মধ্যে সম্পন্ন করা যেতে পারে।

অদক্ষতা আরও বড় গণনার সাথে আরও প্রকট হয়ে ওঠে। 3394*35979 সমাধান করা, একটি গুণ সমস্যা যা বেশিরভাগ নন-রিজনিং মডেলের ক্ষমতার বাইরে, QwQ-এর স্থানীয় ইন্সট্যান্সের গণনা করতে তিন মিনিট এবং 5,000-এর বেশি টোকেন লেগেছিল।

হাইপারপ্যারামিটার ঠিক করার আগে, একই সমীকরণের জন্য নয় মিনিট এবং প্রায় 12,000 টোকেন প্রয়োজন ছিল।

এখানে মূল বিষয় হল যে একটি মডেল সঠিক উত্তরের দিকে যেতে সক্ষম হতে পারে, এর অর্থ এই নয় যে এটি কাজের জন্য সর্বোত্তম সরঞ্জাম। একটি আরও ব্যবহারিক পদ্ধতি হল QwQ-কে একটি পাইথন ক্যালকুলেটরের অ্যাক্সেস সরবরাহ করা। এটি মডেলের শক্তিগুলিকে কাজে লাগায় এবং গণনামূলকভাবে নিবিড় কাজগুলিকে আরও উপযুক্ত সরঞ্জামে স্থানান্তরিত করে।

যখন টুলিং ব্যবহার করে একই 3394*35979 সমীকরণটি সমাধান করার দায়িত্ব দেওয়া হয়েছিল, তখন QwQ-এর প্রতিক্রিয়ার সময় আট সেকেন্ডে নেমে আসে, কারণ ক্যালকুলেটরটি ভারী কাজ পরিচালনা করেছিল।

“অপেক্ষা করুন” এর প্রাদুর্ভাব: চিন্তার প্রক্রিয়ার একটি ঝলক

QwQ-এর “চিন্তাগুলি” পরীক্ষা করলে “অপেক্ষা করুন” শব্দটির ঘন ঘন উপস্থিতি দেখা যায়, বিশেষ করে জটিল কাজ বা শব্দ সমস্যার সময়। এটি বিকল্প ফলাফলের বিরুদ্ধে তার কাজ পরীক্ষা করার মডেলের অভ্যন্তরীণ প্রক্রিয়াটিকে প্রতিফলিত করে।

যদিও এই আচরণটি রিজনিং মডেলগুলিতে সাধারণ, এটি বিশেষভাবে হতাশাজনক হতে পারে যখন QwQ একটি ভুল উত্তর তৈরি করে, এমনকি তার “চিন্তা” প্রক্রিয়ার সময় সঠিক উত্তরের একটি বোধগম্যতা প্রদর্শন করার পরেও।

পরীক্ষার সময় এই সমস্যাটি প্রায়শই দেখা গিয়েছিল। সবচেয়ে দৃষ্টান্তমূলক উদাহরণগুলির মধ্যে একটি হল ক্লাসিক নেকড়ে, ছাগল এবং বাঁধাকপি সমস্যার AutoGen AI-এর অভিযোজন। এই ধাঁধাটি একটি পরিবহন অপ্টিমাইজেশান চ্যালেঞ্জ উপস্থাপন করে:

সমাধানটি প্রম্পটের মধ্যেই এমবেড করা আছে: তিনটি সুরক্ষিত কম্পার্টমেন্ট সহ, কৃষক এক ট্রিপেই সমস্ত জিনিস পরিবহন করতে পারে। যাইহোক, ধাঁধাটির ক্লাসিক সংস্করণের সাথে সাদৃশ্যের কারণে, মডেলগুলি প্রায়শই কম্পার্টমেন্টগুলিকে উপেক্ষা করে।

পরীক্ষায়, QwQ ধারাবাহিকভাবে এই ধাঁধাটি সঠিকভাবে সমাধান করতে ব্যর্থ হয়েছে। এর চিন্তার প্রক্রিয়া পরীক্ষা করে দেখা গেছে যে এটি তিনটি কম্পার্টমেন্টকে উপেক্ষা করেনি। প্রকৃতপক্ষে, এটি তাদের স্বীকার করেছে কিন্তু সেগুলিকে খুব সহজ বলে খারিজ করেছে:

“অপেক্ষা করুন, যদি কৃষক এক ট্রিপে তিনটি নিতে পারে, তবে সে কেবল এটি করতে পারে এবং সম্পন্ন করতে পারে। তবে এটি সমস্যাটিকে তুচ্ছ করে তুলবে, যা অসম্ভাব্য। তাই সম্ভবত কম্পার্টমেন্টগুলি আলাদা তবে নৌকাটি কেবল দুটি জিনিস এবং কৃষককে বহন করতে পারে?”

ক্লাউডে বা স্থানীয়ভাবে সম্পূর্ণ মডেলে পরীক্ষা চালানো হোক না কেন, QwQ ধারাবাহিকভাবে এটি সমাধান করতে লড়াই করেছে। এটি তার যুক্তির ক্ষমতার একটি সম্ভাব্য সীমাবদ্ধতা তুলে ধরে, যেখানে এটি সমস্যার সীমাবদ্ধতাগুলিকে অতিরিক্ত চিন্তা করতে বা ভুল ব্যাখ্যা করতে পারে।

হাইপারপ্যারামিটার সংবেদনশীলতা: একটি সূক্ষ্ম ভারসাম্য

অন্যান্য মডেলের তুলনায়, QwQ তার কনফিগারেশনের প্রতি একটি বর্ধিত সংবেদনশীলতা প্রদর্শন করেছে। প্রাথমিকভাবে, আলিবাবা নির্দিষ্ট স্যাম্পলিং প্যারামিটারের সুপারিশ করেছিল:

  • Temperature: 0.6
  • TopP: 0.95
  • TopK: 20 থেকে 40 এর মধ্যে

পরবর্তীকালে, এই সুপারিশগুলি আপডেট করা হয়েছিল:

  • MinP: 0
  • Presence Penalty: 0 থেকে 2 এর মধ্যে

Llama.cpp-এর স্যাম্পলিং প্যারামিটারগুলির পরিচালনার ক্ষেত্রে একটি আপাত বাগের কারণে (Llama.cpp মডেলগুলিতে অনুমান চালানোর জন্য ব্যবহৃত হয়), এটিকে 1-এ সেট করে পুনরাবৃত্তি পেনাল্টি নিষ্ক্রিয় করাও প্রয়োজন ছিল।

পূর্বে উল্লিখিত হিসাবে, এই কনফিগারেশন সমস্যাগুলি সমাধান করার ফলে একটি উল্লেখযোগ্য উন্নতি হয়েছে, একটি উত্তরে পৌঁছানোর জন্য প্রয়োজনীয় “চিন্তাভাবনা” টোকেনগুলির সংখ্যা অর্ধেকেরও বেশি হ্রাস পেয়েছে। যাইহোক, এই বাগটি GGUF-কোয়ান্টাইজড মডেলগুলির জন্য নির্দিষ্ট বলে মনে হচ্ছে যখন Llama.cpp ইনফারেন্স ইঞ্জিনে চালানো হয়, যা Ollama এবং LM Studio-এর মতো জনপ্রিয় অ্যাপ্লিকেশনগুলির দ্বারা ব্যবহৃত হয়।

Llama.cpp ব্যবহার করার পরিকল্পনা করা ব্যবহারকারীদের জন্য, স্যাম্পলিং অর্ডার সংশোধন করার জন্য Unsloth-এর গাইডটি দেখার পরামর্শ দেওয়া হচ্ছে।

QwQ দিয়ে শুরু করা: একটি ব্যবহারিক গাইড

যারা QwQ নিয়ে পরীক্ষা করতে আগ্রহী, তাদের জন্য Ollama-তে এটি সেট আপ করা তুলনামূলকভাবে সহজ। যাইহোক, এটি লক্ষ করা গুরুত্বপূর্ণ যে এটির জন্য প্রচুর পরিমাণে vRAM সহ একটি GPU প্রয়োজন। মডেলটি ব্যবহারিক ব্যবহারের জন্য যথেষ্ট বড় একটি কনটেক্সট উইন্ডো সহ একটি 24GB 3090 Ti-তে সফলভাবে চালানো হয়েছিল।

একটি CPU এবং সিস্টেম মেমরিতে মডেলটি চালানো প্রযুক্তিগতভাবে সম্ভব হলেও, এটি অত্যন্ত ধীর প্রতিক্রিয়ার সময় হতে পারে যদি না একটি উচ্চ-সম্পন্ন ওয়ার্কস্টেশন বা সার্ভার ব্যবহার করা হয়।

পূর্বশর্ত:

  1. 4-বিট কোয়ান্টাইজেশনে মাঝারি আকারের LLM চালাতে সক্ষম একটি মেশিন। কমপক্ষে 24GB vRAM সহ একটি সামঞ্জস্যপূর্ণ GPU সুপারিশ করা হয়। সমর্থিত কার্ডগুলির একটি তালিকা এখানে পাওয়া যাবে।
  2. অ্যাপল সিলিকন ম্যাকের জন্য, সর্বনিম্ন 32GB মেমরির সুপারিশ করা হয়।

এই গাইডটি একটি Linux-ওয়ার্ল্ড কমান্ড-লাইন ইন্টারফেস এবং Ollama-এর সাথে প্রাথমিক পরিচিতি অনুমান করে।

Ollama ইনস্টল করা

Ollama একটি জনপ্রিয় মডেল রানার যা ভোক্তা হার্ডওয়্যারে LLM ডাউনলোড এবং পরিবেশন করার প্রক্রিয়াটিকে সহজ করে। Windows বা macOS ব্যবহারকারীদের জন্য, ollama.com থেকে অন্য যেকোনো অ্যাপ্লিকেশনের মতো এটি ডাউনলোড এবং ইনস্টল করুন।

Linux ব্যবহারকারীদের জন্য, Ollama ইনস্টলেশনের জন্য একটি সুবিধাজনক ওয়ান-লাইনার সরবরাহ করে: