Aprende Ollama en menos de 8 minutos!

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 พ.ย. 2024

ความคิดเห็น • 12

  • @angelmesa9530
    @angelmesa9530 3 หลายเดือนก่อน +3

    Saludos tengo una duda yo puedo instalar Ollama en un PenDrive, SD Card o disco duro externo si no tengo espacio en mi disco duro de mi laptop.
    Gracias y disculpar por la pregunta se que e media tonta es que me interesa pero no tengo mucho espacio.

  • @AdanAndre-2090
    @AdanAndre-2090 หลายเดือนก่อน +1

    Ollama se puede instalar en un teléfono y se puede usar gemma2:2b. Mas o menos genera 6 tokens por segundo.

  • @AlexWood-y6g
    @AlexWood-y6g 11 วันที่ผ่านมา

    Pregunta entonces para que son las versiones GUFF, por que si me dice que por ejemplo estas corriendo gemma 2 9B sin el acronimo GUFF de lado no necesitas gpu? puedes correrlo si tienes la RAM necesaria?

  • @nahuelgavilanbernal5769
    @nahuelgavilanbernal5769 6 หลายเดือนก่อน +6

    Lo de que usen el puerto 11434 es de 200 IQ 😂

  • @JA_8800
    @JA_8800 27 วันที่ผ่านมา

    Que software utilizan para las peticiones?

  • @antoniomuro1411
    @antoniomuro1411 6 หลายเดือนก่อน

    Gracias por la demo! parece interesante habrá que probarlo :)

  • @LOFIBOT-bp6hm
    @LOFIBOT-bp6hm 5 หลายเดือนก่อน +1

    pues lo unico que sale es
    Error: could not connect to ollama app, is it running?

    • @ASDER-qs6yn
      @ASDER-qs6yn 23 วันที่ผ่านมา

      Necesitas ejecutar el servidor primero: 'ollama serve'. Si usas ese comando no podrás seguir usando la terminal actual, así que si usas docker tienes que abrir otra, o usar un multiplexor de terminal.

  • @ricardoruizdiaz7218
    @ricardoruizdiaz7218 6 หลายเดือนก่อน

    como filtro para solo obtener el "response" ?

  • @claudioguendelman
    @claudioguendelman 4 หลายเดือนก่อน

    Cuando lo van a hacer con Linux.... Creo que con Mac es un pésimo ejemplo.

    • @VictorJoseVelascoRios
      @VictorJoseVelascoRios 3 หลายเดือนก่อน +3

      Mac es unix como Linux, quizás el pésimo es otro