Ero sivun ”Ollama” versioiden välillä

Siirry navigaatioon Siirry hakuun
ollama
 
Ei muokkausyhteenvetoa
 
(3 välissä olevaa versiota samalta käyttäjältä ei näytetä)
Rivi 17: Rivi 17:
| lähdekoodi    =  
| lähdekoodi    =  
}}
}}
'''Ollama''' on ohjelmisto, joka mahdollistaa suurten kielimallien ([[LLM]]) ajamisen ja hallinnan suoraan omalla koneellasi ilman palvelinta.
'''Ollama''' on avoimen lähdekoodin ohjelmisto, joka on suunniteltu suurten kielimallien ([[LLM]], Large Language Model) ajamiseen suoraan käyttäjän omalla tietokoneella (paikallisesti) ilman erillistä palvelininfrastruktuuria.  


== Tiivistelmä keskeisistä asioista ==
Sovellus on saatavilla Linuxille, macOS:lle ja Windowsille. Se tarjoaa helppokäyttöisen komentorivikäyttöliittymän (CLI) ja tausta-ajona toimivan palvelun. Vaikka Ollama toimii suorittimella (CPU), se hyödyntää optimaalisesti GPU-kiihdytystä (erityisesti NVIDIA:n CUDA:a tai AMD:n ROCia.
* Sen avulla voit suorittaa avoimen lähdekoodin kielimalleja (kuten Llama 2, Mistral ja Gemma) paikallisesti.
 
* Se parantaa yksityisyyttä ja turvallisuutta, koska mallit ja tietosi pysyvät omalla laitteellasi. Se tarjoaa myös helpon tavan integroida malleja sovelluksiin API:n kautta.
== Keskeiset hyödyt ==
Ollaman suosio perustuu sen tarjoamiin etuihin verrattuna pilvipohjaisiin ratkaisuihin.
* Yksityisyys ja Turvallisuus: Malli ajetaan ja data käsitellään omalla laitteella, mikä varmistaa paremman tietosuojan, sillä tieto ei siirry ulkopuolisille palvelimille.
* Suorituskyky: Mallien ajaminen paikallisesti voi tarjota paremman suorituskyvyn (matalamman viiveen) kuin pilvipohjaiset järjestelmät.
* Kustomointi: Mahdollistaa omien, räätälöityjen mallien luomisen ja olemassa olevien mallien hienosäädön (adapteripohjainen hienosäätö) Modelfile-tiedoston avulla.
* Integraatio: Tarjoaa helpon API-integraation kehittäjille.
 
== Tuetut mallit ==
Ollama tukee useita suosittuja avoimen lähdekoodin kielimalleja, joita käyttäjä voi ladata ja ajaa yhdellä komennolla:
 
''ollama run [mallin nimi]''
 
* Llama 2 ja Llama 3 (Meta)
* Mistral
* Gemma (Google)
* Code Llama
* Phi-2
* Sekä useita muita, pienempiä ja erikoistuneempia malleja.
 
Se parantaa yksityisyyttä ja turvallisuutta, koska mallit ja tietosi pysyvät omalla laitteellasi. Se tarjoaa myös helpon tavan integroida malleja sovelluksiin API:n kautta.
* Se on saatavilla Linuxille, macOS:lle ja Windowsille.
* Se on saatavilla Linuxille, macOS:lle ja Windowsille.
* Sen perusidea on tehdä paikallisten kielimallien käyttö mahdollisimman yksinkertaiseksi niin kehittäjille kuin harrastajillekin.
* Sen perusidea on tehdä paikallisten kielimallien käyttö mahdollisimman yksinkertaiseksi niin kehittäjille kuin harrastajillekin.
Noudettu kohteesta ”https://www.linux.fi/wiki/Ollama