Saludos tengo una duda yo puedo instalar Ollama en un PenDrive, SD Card o disco duro externo si no tengo espacio en mi disco duro de mi laptop. Gracias y disculpar por la pregunta se que e media tonta es que me interesa pero no tengo mucho espacio.
Pregunta entonces para que son las versiones GUFF, por que si me dice que por ejemplo estas corriendo gemma 2 9B sin el acronimo GUFF de lado no necesitas gpu? puedes correrlo si tienes la RAM necesaria?
Necesitas ejecutar el servidor primero: 'ollama serve'. Si usas ese comando no podrás seguir usando la terminal actual, así que si usas docker tienes que abrir otra, o usar un multiplexor de terminal.
Saludos tengo una duda yo puedo instalar Ollama en un PenDrive, SD Card o disco duro externo si no tengo espacio en mi disco duro de mi laptop.
Gracias y disculpar por la pregunta se que e media tonta es que me interesa pero no tengo mucho espacio.
Ollama se puede instalar en un teléfono y se puede usar gemma2:2b. Mas o menos genera 6 tokens por segundo.
Pregunta entonces para que son las versiones GUFF, por que si me dice que por ejemplo estas corriendo gemma 2 9B sin el acronimo GUFF de lado no necesitas gpu? puedes correrlo si tienes la RAM necesaria?
Lo de que usen el puerto 11434 es de 200 IQ 😂
Que software utilizan para las peticiones?
Gracias por la demo! parece interesante habrá que probarlo :)
pues lo unico que sale es
Error: could not connect to ollama app, is it running?
Necesitas ejecutar el servidor primero: 'ollama serve'. Si usas ese comando no podrás seguir usando la terminal actual, así que si usas docker tienes que abrir otra, o usar un multiplexor de terminal.
como filtro para solo obtener el "response" ?
Cuando lo van a hacer con Linux.... Creo que con Mac es un pésimo ejemplo.
Mac es unix como Linux, quizás el pésimo es otro