Full nedladdning

Hämta full HTML lokalt för alla scrape:ade fall

← Q&A · Graf · 🎮 GPU:er · Scraping

🎮 GPU-status — fjärrservrar

KBLab-embeddings körs nu på GPU via WireGuard.

Hämtar GPU-status...

-Vektorer/sek (server)
-Totalt embeddat
-Snitt-latens (ms/anrop)
-Server-uptime (min)
Initierar...

🧠 Re-embedding av trasiga fall

Fixar fall som bara fick 1 chunk (bara metadata embeddat). Mål: ~500 000 chunks när alla PROP/SOU/BET/DS/EU/FR/IP/DOK återembeddas med full text.

Hämtar status...
-Chunks i Qdrant
-Chunks/min
-ETA (min)
-Tid igång (min)
Initierar...

🕷️ Scraping av nya domar (nya fall från källor)

Hämtar status...
-Fall på disk totalt
-Jobb körs
-I kö
-Aktiva fall hämtas
-Klara
-Misslyckade

Aktiva scrape-jobb

Inga aktiva jobb.

📄 HTML-nedladdning (rå-HTML från source-URL:er)

0 / 0 (0%)
0Nedladdade
0Redan lokalt
0Saknar URL
0Fel
-Hastighet/min
-ETA (min)
-Tid (sek)
Inaktiv

📕 PDF-nedladdning (för domstol.se där domarna ligger som PDF)

0 / 0 (0%)
0PDF:er hämtade
0Tecken extraherade
0Saknar PDF
0Fel
-Fall/min
-Tid (sek)
Inaktiv

Vad händer här?

För varje sparat fall hämtas full rå-HTML från originalkällan (lagen.nu, domstol.se, EUR-Lex etc.) och sparas lokalt bredvid JSON-en. När alla är klara kan AI:n läsa hela domtexten — inklusive domskäl som annars saknades — istället för bara extraherade sammanfattningar.

⚠️ Detta tar tid. Med 1 sek rate-limit per host: ~1 fall/sek = ~20 timmar för 70 000 fall. Sänk rate-limiten till 0.5 sek på vänliga sajter (lagen.nu) för att halvera tiden.