Man kann auf einem älteren Rechner ohne Graphikkarte ein ziemlich
einfach ein lokales LLM laufen lassen.
Beitrag "Re: Erfahrungen mit AI-Coding"
Weil mein Rechner schon etwas älter ist, habe ich ein heutzutage
ziemlich kleines Modell mit unter 1GB Parameter installiert.
Ich erwarte nicht, dass das Modell etwas nützliches produzieren kann,
aber es ist relativ spannend damit zu spielen. Man kann es gibt auch
Einstellparameter, die man sichtbar machen und verändern kann.
1 | >>> /show info
|
2 | Model
|
3 | architecture qwen35
|
4 | parameters 873.44M
|
5 | context length 262144
|
6 | embedding length 1024
|
7 | quantization Q8_0
|
8 | requires 0.17.1
|
9 |
|
10 | Capabilities
|
11 | completion
|
12 | vision
|
13 | tools
|
14 | thinking
|
15 |
|
16 | Parameters
|
17 | top_k 20
|
18 | top_p 0.95
|
19 | presence_penalty 1.5
|
20 | temperature 1
|
21 |
|
22 | License
|
23 | Apache License
|
24 | Version 2.0, January 2004
|
25 | ...
|
Man versteht auch anhand der Parameteraufzählung ein wenig, wie man das
Modell beeinflussen kann, was ja bei der Benutzung von ChatGPT oder
ähnlichen nicht so klar ist.
Irgendwie kann es trotz der geringen Größe auch etwas Deutsch. Wenn man
aber die Frage stellt "Sprichst Du Deutsch" verrennt es sich in einer
Schleife und überlegt, ob es jetzt auf Deutsch antworten soll oder die
Frage mit "Ja" beantworten (man kann den Überlegungen zusehen, weil der
Prozess visualisiert wird).
Setzt man den Parameter
antwortet es schnell
"Ja, ich spreche Deutsch. Was kann ich heute Ihnen helfen?"
und auf die Frage "Kannst du den Satz "Wann haben die Römer gelebt?" auf
Englsich übersetzen?"
eigentlich ganz gut mit
"When did the Romans live?"
Vielleicht will von euch auch mal jemand mit dem Modell (oder einem
ähnlichen) spielen und die Erfahrungen mitteilen.