Un’altra domanda: può provare a collegarsi alla Ui da diversi browser(meglio se da differenti pc) così da simulare l’utilizzo da più persone contemporaneamente? Chiedo perché ho letto un commento su git che potrebbe inficiarne l’utilizzo in un ambiente con più persone. Grazie
Teoricamente la soluzione e' nata per un ambiente "collaborativo" ma forse il prodotto e' ancora un po' acerbo. Come pero' puoi aver notato, i ragazzi di RagFlow sono molto attivi e magari riusciranno a risolvere i problemi della multi utenza in pochi mesi, almeno e' la mia speranza 🙂 Grazie ancora per le domande!
Hi my friend, nice work i discovered also that tool, but i'm struggling to make my ragflow add ollama models despite the fact that ollama is running locally, how did make communicate the RAGFlow containter to be able to add the Ollama models ?
Hi Marrootify, thanks so much! I did not make any complex configuration, I only define a new LLM engine with type Ollama and I put the Ollama Endpoint (HTTP://ollama_ip:port) with an already present LLM Model (in Ollama) by hand. I hope my suggestion can help you in some way. Thanks!!
Rinnovo i complimenti dovuti!! Tool molto promettente, penso che lo proverò anche se sto passando piu tempo ad implementare soluzioni che a provare ad usarle xD SIcuramente una funzione chiave è la citazione che dichiara da dove ha preso l'informazione, ti permette di evitare il più possibile di fidarti di allucinazioni varie finchè questi strumenti non risolveranno il problema alla radice. Anche in questo caso però manca ancora una sincronizzazione continua con una fonte di informazioni, ma anche per questo penso sia solo questione di tempo. Probabilmente è una soluzione che non viene ancora fornita data la fase acerba di queste soluzioni, dato che per aumentare la qualità delle risposte, bisogna dare tantissime informazioni del contenuto, e se questo contenuto dovesse cambiare potrebbe scemare la coerenza delle informazioni iniziali. Siamo solo all'inizio :)
Grazie mille per il commento, come hai gia' evidenziato la questione del sync con una share non e' ancora supportato anche se ci stanno lavorando (S3 Storage). Vediamo come si evolve 🙂 Stay tuned!
Convertire il tutto per Kube non penso sia un problemone ma per la parte di Seeweb e' da capire insieme a loro. Appena torno dalle vacanze provo a sentirli! Grazie mille
Wow, anche questo software che ci hai presentato mi sembra ottimo. Su che distribuzione lo hai installato? Che risorse hardware? Si possono settare le policy per gli utenti? Grazie Dimitri 🎉
Ciao Octo, grazie. L'ho installato su Rocky Linux 9 come Docker container e quindi direi che puoi installarlo ovunque! Richiede un po di risorse perche fa uso di uno stack con Elastik Search, Redis e MySQL ma nulla di particolare, chiaramente poi dipende da quanti documenti dovra indicizzare. Il vero problema e' il motore di inferenza che nel mio caso e' ollama installato su una macchina a parte con delle schede NVIDIA RTX 8000 🙂 Slautone
Un’altra domanda: può provare a collegarsi alla Ui da diversi browser(meglio se da differenti pc) così da simulare l’utilizzo da più persone contemporaneamente? Chiedo perché ho letto un commento su git che potrebbe inficiarne l’utilizzo in un ambiente con più persone. Grazie
Teoricamente la soluzione e' nata per un ambiente "collaborativo" ma forse il prodotto e' ancora un po' acerbo.
Come pero' puoi aver notato, i ragazzi di RagFlow sono molto attivi e magari riusciranno a risolvere i problemi della multi utenza in pochi mesi, almeno e' la mia speranza 🙂
Grazie ancora per le domande!
Hi my friend, nice work i discovered also that tool, but i'm struggling to make my ragflow add ollama models despite the fact that ollama is running locally, how did make communicate the RAGFlow containter to be able to add the Ollama models ?
Hi Marrootify, thanks so much! I did not make any complex configuration, I only define a new LLM engine with type Ollama and I put the Ollama Endpoint (HTTP://ollama_ip:port) with an already present LLM Model (in Ollama) by hand.
I hope my suggestion can help you in some way.
Thanks!!
Rinnovo i complimenti dovuti!! Tool molto promettente, penso che lo proverò anche se sto passando piu tempo ad implementare soluzioni che a provare ad usarle xD SIcuramente una funzione chiave è la citazione che dichiara da dove ha preso l'informazione, ti permette di evitare il più possibile di fidarti di allucinazioni varie finchè questi strumenti non risolveranno il problema alla radice. Anche in questo caso però manca ancora una sincronizzazione continua con una fonte di informazioni, ma anche per questo penso sia solo questione di tempo. Probabilmente è una soluzione che non viene ancora fornita data la fase acerba di queste soluzioni, dato che per aumentare la qualità delle risposte, bisogna dare tantissime informazioni del contenuto, e se questo contenuto dovesse cambiare potrebbe scemare la coerenza delle informazioni iniziali. Siamo solo all'inizio :)
Grazie mille per il commento, come hai gia' evidenziato la questione del sync con una share non e' ancora supportato anche se ci stanno lavorando (S3 Storage). Vediamo come si evolve 🙂
Stay tuned!
Buongiorno è possibile convertire l’installazione da docker a kubernetes e utilizzare la cpu nvidia a100 offerta da seeweb dell’altro video?
Convertire il tutto per Kube non penso sia un problemone ma per la parte di Seeweb e' da capire insieme a loro.
Appena torno dalle vacanze provo a sentirli!
Grazie mille
Wow, anche questo software che ci hai presentato mi sembra ottimo. Su che distribuzione lo hai installato? Che risorse hardware? Si possono settare le policy per gli utenti?
Grazie Dimitri 🎉
Ciao Octo, grazie.
L'ho installato su Rocky Linux 9 come Docker container e quindi direi che puoi installarlo ovunque! Richiede un po di risorse perche fa uso di uno stack con Elastik Search, Redis e MySQL ma nulla di particolare, chiaramente poi dipende da quanti documenti dovra indicizzare.
Il vero problema e' il motore di inferenza che nel mio caso e' ollama installato su una macchina a parte con delle schede NVIDIA RTX 8000 🙂
Slautone