Si të instaloni dhe përdorni DeepSeek-R1 në nivel lokal në kompjuterin tuaj, pavarësisht nëse përdorni Ubuntu ose ndonjë sistem tjetër

  • DeepSeek-R1 është një model me burim të hapur me aftësi të avancuara arsyetimi.
  • Ollama thjeshton instalimin dhe menaxhimin e modeleve të AI në nivel lokal.
  • ChatBoxAI ofron një ndërfaqe grafike për të bashkëvepruar me modele si DeepSeek.
  • Modeli mund të integrohet lehtësisht në projektet e zhvillimit me Python.

DeepSeek-R1 në Ubuntu

Inteligjenca artificiale vazhdon të transformojë botën tonë dhe opsionet për të punuar me modele të avancuara gjuhësore po rriten me hapa të mëdhenj. Megjithatë, jo të gjithë duhet të lidhen me shërbimet cloud ose të mbështeten te palët e treta për të eksploruar këto teknologji. Një alternativë interesante dhe e arritshme është DeepSeek-R1, një model i AI që lejon përdoruesit ta ekzekutojnë atë në nivel lokal në kompjuterë modest. Në këtë artikull, unë do të shpjegoj se si të instaloni DeepSeek dhe të përfitoni plotësisht nga aftësitë e tij.

DeepSeek-R1 është një modeli i AI me burim të hapur që shquhet për efikasitetin dhe aftësinë e avancuar të arsyetimit. Duke e ekzekutuar atë në nivel lokal, ju jo vetëm që kurseni kostot e përsëritura, por gjithashtu mbroni privatësinë tuaj dhe fitoni fleksibilitet për ta integruar atë në projekte të personalizuara. Megjithëse disa modele kërkojnë pajisje të fuqishme, DeepSeek-R1 ofron versione të akorduara për burime të ndryshme, nga kompjuterët bazë deri te stacionet e avancuara të punës.

Çfarë është DeepSeek dhe pse ta përdorim atë në nivel lokal?

DeepSeek-R1 është një model i avancuar i gjuhës i krijuar për detyra komplekse si arsyetimi logjik, zgjidhjen e problemeve matematikore dhe gjenerimin e kodit. Avantazhi i tij kryesor është se është me kod të hapur, që do të thotë se mund ta instaloni dhe ekzekutoni në kompjuterin tuaj pa u varur nga serverët e jashtëm.

Disa nga karakteristikat e tij të dukshme përfshijnë:

  • fleksibilitet: Ju mund ta përshtatni modelin sipas nevojave tuaja, nga versionet e lehta deri te konfigurimet e avancuara.
  • Privacy: I gjithë përpunimi kryhet në nivel lokal, duke shmangur shqetësimet për ekspozimin e të dhënave të ndjeshme. Kjo është ndoshta pika më e rëndësishme, pasi shumë janë të shqetësuar se çfarë mund të bëjnë kompanitë me të dhënat tona.
  • Kursimi: Nuk do t'ju duhet të shpenzoni para për abonimet ose shërbimet cloud, duke e bërë atë një opsion të përballueshëm për zhvilluesit dhe bizneset.

Kërkesat për instalim

Përpara se të filloni instalimin, sigurohuni që të respektoni sa vijon requisitos:

  • Një kompjuter me një sistem operativ Linux, macOS ose Windows (me mbështetje për WSL2 në rastin e fundit).
  • Një minimum prej GB RAM 8, megjithëse rekomandohet të paktën 16 GB për performancë optimale.
  • Qasje në internet për të shkarkuar modelet fillimisht.
  • Njohuri bazë për terminalin ose linjën komanduese.

Përveç kësaj, do t'ju duhet të instaloni një mjet të quajtur Ollama, i cili menaxhon dhe drejton modelet DeepSeek në nivel lokal.

Instalimi Olama

Ollama është një zgjidhje e thjeshtë që ju lejon të shkarkoni dhe ekzekutoni modele gjuhësore si p.sh DeepSeek-R1. Për ta instaluar, ndiqni këto hapa:

  1. Në Linux ose macOS, hapni terminalin dhe ekzekutoni komandën e mëposhtme për të instaluar Olama - paketën përdridhem Është e nevojshme, padyshim -:
curl -fsSL https://ollama.com/install.sh | sh
  1. Në sistemet Windows, sigurohuni që të keni aktivizuar WSL2 paraprakisht dhe më pas ndiqni të njëjtat hapa në terminalin Ubuntu që konfiguroni brenda WSL.
  2. Verifikoni që Olama është instaluar saktë duke ekzekutuar ollama --version. Nëse komanda kthen një numër versioni, ju jeni gati për të ecur përpara.

Shkarko DeepSeek-R1

Me Ollama të instaluar dhe në punë (ollama serve në terminal nëse shkarkimi që ne shpjegojmë më vonë dështon), tani mund të shkarkoni modelin DeepSeek që i përshtatet më së miri nevojave dhe pajisjeve tuaja:

  • Parametrat 1.5B: Ideale për kompjuterët bazë. Ky model zë afërsisht 1.1 GB.
  • Parametrat 7B: Rekomandohet për pajisje me GPU mesatar-i lartë. Kjo zë rreth 4.7 GB.
  • Parametrat 70B: Për detyra komplekse në pajisje me kapacitet te madh memorie dhe GPU të fuqishme.

Për të shkarkuar modelin standard 7B, ekzekutoni këtë komandë në terminal:

Olama Run Deepseek-R1

Koha e shkarkimit do të varet nga shpejtësia juaj e internetit dhe do të jetë e nevojshme vetëm herën e parë që ne përdorim chatbot. Pasi të përfundojë, modeli do të jetë gati për t'u përdorur nga linja e komandës ose përmes një ndërfaqe grafike.

Përdorimi i DeepSeek me një ndërfaqe grafike

Megjithëse mund të ndërveproni me DeepSeek direkt nga terminali, shumë përdorues preferojnë një ndërfaqe grafike për lehtësi. Në këtë rast, ju mund të instaloni ChatBoxAI, një aplikacion falas që do t'ju lejojë të përfitoni nga DeepSeek formë vizuale.

  • Shkarkoni dhe instaloni ChatBoxAI nga faqja e saj zyrtare.
  • Cakto aplikacionin për t'u përdorur Ollama si furnizues model:

Në cilësimet e ChatBoxAI, zgjidhni "Përdor API-në time" dhe zgjidhni modelin DeepSeek që keni shkarkuar më parë. Nëse gjithçka është konfiguruar saktë, do të jeni në gjendje të kryeni pyetje dhe detyra direkt nga ndërfaqja grafike.

Integrimi i DeepSeek në projekte

Nëse jeni zhvillues, mund ta integroni DeepSeek në projektet tuaja duke përdorur atë API E pajtueshme me OpenAI. Këtu është një shembull i thjeshtë duke përdorur Piton:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") answer = client.chat.completions.create(model="deepseek-r1", mesazhe=[{ "role": "përdorues", "përmbajtje": "Gjeneroni kodin në Python për të llogaritur Fibonacci"}])

Ky skript do të dërgojë një pyetje në modelin lokal DeepSeek dhe do të kthejë rezultatin në terminalin ose aplikacionin tuaj.

Modeli DeepSeek-R1 AI përfaqëson një opsion të shkëlqyer për ata që kërkojnë një zgjidhje e avancuar dhe ekonomike. Me lehtësinë e aksesit që ofron Ollama, fleksibilitetin e modeleve të saj dhe aftësinë për t'u integruar në projekte të personalizuara, DeepSeek hap mundësi të reja për zhvilluesit, studentët dhe ekspertët e AI. Me fokusin e tij në privatësi dhe performancë, është një mjet që meriton të eksplorohet tërësisht.


Lini komentin tuaj

Adresa juaj e emailit nuk do të publikohet. Fusha e kërkuar janë shënuar me *

*

*

  1. Përgjegjës për të dhënat: Miguel Ángel Gatón
  2. Qëllimi i të dhënave: Kontrolloni SPAM, menaxhimin e komenteve.
  3. Legjitimimi: Pëlqimi juaj
  4. Komunikimi i të dhënave: Të dhënat nuk do t'u komunikohen palëve të treta përveç me detyrim ligjor.
  5. Ruajtja e të dhënave: Baza e të dhënave e organizuar nga Occentus Networks (BE)
  6. Të drejtat: Në çdo kohë mund të kufizoni, rikuperoni dhe fshini informacionin tuaj.