Prueba gratis Llama 3.2 un nuevo modelo LLM con vision - No necesitas GPU para usarlo

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ธ.ค. 2024

ความคิดเห็น • 19

  • @FENIXDO0166
    @FENIXDO0166 2 หลายเดือนก่อน +1

    Hola a ver pruebo, gracias crack

    • @LaHoraMaker
      @LaHoraMaker  2 หลายเดือนก่อน

      A ver que tal te funciona este modelo! Ya nos contarás!

  • @jaimemunoz3025
    @jaimemunoz3025 2 หลายเดือนก่อน +1

    como siempre el mejor canal de IA

    • @LaHoraMaker
      @LaHoraMaker  2 หลายเดือนก่อน

      Gracias por el cumplido Jaime!

  • @revandarth2680
    @revandarth2680 2 หลายเดือนก่อน +1

    Muchas gracias

    • @LaHoraMaker
      @LaHoraMaker  2 หลายเดือนก่อน

      Gracias por comentar. Seguimos explorando los últimos modelos y compartiendo los resultados en abierto!

  • @zonadock
    @zonadock 2 หลายเดือนก่อน

    Gracias, César

  • @javaboy6581
    @javaboy6581 2 หลายเดือนก่อน

    Cuanto se te echa de menos cuando no estas, maestro. Me encantan los RAGS, LORAS Y TTS en modo local, alucino con estas cosas. Que pena que para un LORA local no tengo GPU

  • @FedeCiencias
    @FedeCiencias 2 หลายเดือนก่อน

    Hola te hago una consulta.. o a la comunidad: que modelo me recomiendan para traducir textos. son textos académicos, complejos.

  • @mariron42
    @mariron42 2 หลายเดือนก่อน

    Hola, me encantan tus videos. En tu experiencia cual sería el mejor dispositivo para montar un micro server arm que pueda ejecutar ia generativa? Habrá salido alguno nuevo interesante?

    • @TheJaaavier
      @TheJaaavier 2 หลายเดือนก่อน

      No es más barato, confiable y potente usar cualquier pc viejo?

    • @mariron42
      @mariron42 2 หลายเดือนก่อน

      @@TheJaaavier a corto plazo probablemente pero si tomamos en cuenta el consumo de electricidad, el tamaño que ocupa en un departamento y la necesidad de refrigeración entonces un modesto arm puede ser ideal para servidor personal en un futuro.

    • @TheJaaavier
      @TheJaaavier 2 หลายเดือนก่อน

      @@mariron42 a largo plazo si le quieres sacar todo el jugo posible a un servidor vas a necesitar mas ram. Todavia no hay mucho en arm las rasberry son para entretenerse corriendo juegos retro o multimedia, eso si, tendrás que cambiar las sd muy seguido que mueren solas al exigirles correr un sistema operativo. Quizas si qualcom compra intel como se rumorea la cosa podría cambiar

    • @TheJaaavier
      @TheJaaavier 2 หลายเดือนก่อน

      En espacial si quieres correr AI que valgan la pena necesitaras montones de ram y procesamiento. Son muy llamativas por su tamaño chiquito pero no lo valen tanto. Nvidia esta fabricando minis cacharros para correr AI. como la orin nano viene con arm. Sera mas barato y potente una mini-atx ordinaria pero si te interesa lo super mini podría ser una opción

  • @yosoyjose
    @yosoyjose 2 หลายเดือนก่อน

    Hola Cesar cómo estás? te quería preguntar qué esperas de los nuevos procesadores de AMD con NPU de 50TOPS, AMD Ryzen AI 9 HX 370, crees que será suficiente para ejecutar modelos de lenguaje de forma local? tienes alguna expectativa sobre esta nueva generación de procesadores? un saludo

  • @juanpablo9717
    @juanpablo9717 2 หลายเดือนก่อน

    Sabes si es posible correr estos modelos aue rscibwn imágenes de manera local? He visto aue en los modelos de Llama hay uno llamado Lava y wuisoera probar en alguna herramienta como Anything LLM para hacer pruebas como las que acabas de hacer
    Gracias por la info, nuevo sub!

  • @zirus8346
    @zirus8346 หลายเดือนก่อน

    cómo puedo tener esto en mi pc?

    • @Oce270
      @Oce270 28 วันที่ผ่านมา

      con ollama

  • @Reyiman
    @Reyiman 2 หลายเดือนก่อน