Tu propio Github Copilot Gratuito instalado en tu computador - Code GPT y Ollama

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 ธ.ค. 2024

ความคิดเห็น • 137

  • @hbmichang
    @hbmichang 8 หลายเดือนก่อน +166

    Fazt es mi pastor y nada me faltará!

    • @sneuder9544
      @sneuder9544 8 หลายเดือนก่อน +13

      Fazt es mi pastor y mi código compilará.

    • @PedroEnriquePadillaRuiz
      @PedroEnriquePadillaRuiz 7 หลายเดือนก่อน

      🤣🤣🤣

    • @odiio3402
      @odiio3402 7 หลายเดือนก่อน +5

      Sobre delicados repositorios me hará descansar

    • @FrancoAguileradonillan
      @FrancoAguileradonillan 6 หลายเดือนก่อน +3

      Cuando camine por el valle de los bugs, no temere porque fazt es mi pastor, y mi proyecto se deployara

    • @milagrossalas4734
      @milagrossalas4734 4 หลายเดือนก่อน

      Se pasan 😂

  • @felixinit
    @felixinit 8 หลายเดือนก่อน +9

    Espectacular extensión GPT Code + Llama3. Muchas gracias!

  • @chind0na
    @chind0na 8 หลายเดือนก่อน +6

    Justamente compré una ASUS con i9 gen 13 la semana pasada para usar Ollama. Esto es genial. Gracias.

  • @inteligenciafutura
    @inteligenciafutura 8 หลายเดือนก่อน +28

    Confío en ti porque tenés credibilidad

  • @arturoespinosa3447
    @arturoespinosa3447 8 หลายเดือนก่อน +30

    Fazt: No se preocupen, la descarga es muy rápida
    Yo al ver su conexión de más de 1 Gbps :|

  • @bertmoran9931
    @bertmoran9931 3 หลายเดือนก่อน +5

    Requisitos de Hardware
    GPU:
    VRAM: Para el modelo llama3 8b, se recomienda tener al menos 5.6 GB de VRAM. Si optas por el modelo llama3 8b-instruct-fp16, necesitarás alrededor de 15.6 GB de VRAM.
    CPU:
    Se sugiere un procesador moderno, como un Intel de 10ª generación o AMD Ryzen 4 o superior, para asegurar un rendimiento adecuado.
    Memoria RAM:
    Un mínimo de 16 GB de RAM es necesario para ejecutar los modelos de manera eficiente. Tener menos RAM puede resultar en un rendimiento lento.
    Almacenamiento:
    Dependiendo de cuántos modelos desees instalar, necesitarás espacio en disco. Por ejemplo, la interfaz web ocupa alrededor de 2 GB, y cada modelo puede ocupar entre 50 GB a más de 100 GB, dependiendo del tamaño del modelo.
    Sistema Operativo:
    Ollama es compatible con sistemas como Windows, macOS y Linux, así que asegúrate de tener uno de estos sistemas operativos instalado.
    Con este hardware adecuado, podrás ejecutar Ollama y sus modelos de manera efectiva en tu máquina local.

  • @missanddiie
    @missanddiie 8 หลายเดือนก่อน +2

    Excelente video, muchas gracias, tus tutoriales son excelentes, van al grano bien explicados y sin exagerar en detalles, muchas gracias.

  • @moy_4520
    @moy_4520 8 หลายเดือนก่อน +1

    excelente me funciono, ya tengo copilot pero con esta nueva ia podre complementar mejor mi forma de desarrollar.

  • @mjavint
    @mjavint 8 หลายเดือนก่อน +2

    Muy buen tips mi hermano, tambien soy creador de contenido, tus contenidos son excelentes, GRACIAS

  • @isrcas
    @isrcas 8 หลายเดือนก่อน +6

    Yo uso Codeium y si tiene autocompletado, y un chat integrado en VS Code, usa GPT-3 👍👍👍

    • @eduardodudu5695
      @eduardodudu5695 8 หลายเดือนก่อน +1

      es mejor, sin gastar tantos recursos. o incluso el editor del cursor.sh

    • @TheEltictacdicta
      @TheEltictacdicta 8 หลายเดือนก่อน

      ​@@eduardodudu5695 yo uso Cursor

    • @SpawN4609
      @SpawN4609 8 หลายเดือนก่อน

      @@eduardodudu5695 que les parece mejor codeium o code whisperer de aws

    • @jomoju
      @jomoju 8 หลายเดือนก่อน

      Codeium es amor, codeium es vida.
      Aunque ayer note que fallaba un poco

    • @isrcas
      @isrcas 8 หลายเดือนก่อน

      @@jomoju para ser gratuito esta genial

  • @jonathansalazar9775
    @jonathansalazar9775 8 หลายเดือนก่อน

    Justamente había visto la noticia del lanzamiento de llama 3 y pensé en si fazt haría algún tutorial sobre eso... increíble fazt, un grande!

  • @oscarfabian3241
    @oscarfabian3241 8 หลายเดือนก่อน +3

    Tus aportes son realmente útiles, gracias por compartir

  • @mwmg704
    @mwmg704 8 หลายเดือนก่อน

    Excelente video, primera vez usando ia en mi vs code

  • @fabianromero1660
    @fabianromero1660 8 หลายเดือนก่อน

    Gracias fazt, tengo entendido que te llamas igual que yo, pero, de grande quiero ser como tú, gracias por tus aportes compa

  • @Gutierma_69
    @Gutierma_69 8 หลายเดือนก่อน

    Super interesante. Voy a probar hacerlo. Gracias por compartir tus conocimientos.

  • @secretosdelatecnologia7177
    @secretosdelatecnologia7177 5 หลายเดือนก่อน

    MUCHAS GRACIAS AMIGO , ME SERVIRÁ MUCHO PARA PRACTICAR PYTHON , MIL GRACIAS

  • @davidvela1735
    @davidvela1735 8 หลายเดือนก่อน

    Yo uso la extensión de black box, tiene autocompletado, pero me parece genial llama 3. Lo probaré

  • @404-not-found-service
    @404-not-found-service 8 หลายเดือนก่อน +1

    Gracias fazt! como siempre un grande

  • @andresbonilla2180
    @andresbonilla2180 8 หลายเดือนก่อน

    Agradable aporte, para nosotros los humildes.

  • @DaNiel-sq3em
    @DaNiel-sq3em 8 หลายเดือนก่อน +3

    Parcero te imaginas el poder del modelo de llama3 que tiene 400B. Es una locura!!

  • @sebastian-ns7ou
    @sebastian-ns7ou 8 หลายเดือนก่อน +3

    Es exelente. Sabes si podria instalarlo en mi proyecto para hacer un chat bot de whatsapp usando mis datos y evitando pagar la api de openIa?
    Gracias por tu aporte. siempre aprendo en tu canal

  • @Johan-zs9xh
    @Johan-zs9xh 8 หลายเดือนก่อน +2

    Una consulta, algo que note es que no se guarda la conversacion? o como se hace?

  • @jessy2819
    @jessy2819 8 หลายเดือนก่อน

    Lo que tú digas, voy a probarlo de una vez.!!!!

  • @dan_seb
    @dan_seb 8 หลายเดือนก่อน +16

    120 MB/s vs mis poderosos 4 MB/s

  • @videovideo166
    @videovideo166 8 หลายเดือนก่อน

    Excelente video man! Oiga! no habia mirado el numerito de los me gusta y las vistas! Como ha crecido el canal eh? recuerdo cuando era el unico que comentaba :P :D Grande Fatz! siga educandonos, por favor!
    EDIT: no que lama 3 acaba de salir? y usted ya nos está enseñando a usarlo?... lo siento, lo olvidaba... FAZT Code :D

  • @JoseLuis-zx2lp
    @JoseLuis-zx2lp 7 หลายเดือนก่อน +2

    ¿Cuanta ram o gpu necesito para que se ejecute correctamente?

  • @MercuryAR
    @MercuryAR 3 หลายเดือนก่อน

    Excelente video.

  • @juliocesarbriceno9310
    @juliocesarbriceno9310 3 หลายเดือนก่อน

    Fazt, saludos y agradecimientos por tus valiosos aportes.
    Tengo una consulta sobre el rendimiento de la computadora. ¿Cuál es más eficiente en términos de código: usar el editor Cursor o la extensión en Visual Studio Code? Además, ¿cuál de estas opciones consume menos recursos y afecta menos el rendimiento de mi equipo?

  • @juansiesquen
    @juansiesquen 8 หลายเดือนก่อน

    Estos modelos podrian ser compartidos para que aprenda las buenas prácticas de un grupo de desarrollo.
    Gracias por el aporte Crack!

  • @drincast100
    @drincast100 7 หลายเดือนก่อน

    me reventó el vs code noooo y lo tenia tuneado, ahora a instalar de nuevo

  • @cristianadonis13
    @cristianadonis13 2 หลายเดือนก่อน

    Consulta, cual son los requisitos minimo y si mi procesador es NPU, no necesito tarjeta gráfica???

  • @sandrabentivegna9545
    @sandrabentivegna9545 8 หลายเดือนก่อน

    Muchas gracias Fazt!

  • @dcloki789
    @dcloki789 8 หลายเดือนก่อน +1

    excelente dato, gracias sensei

  • @code_castle
    @code_castle 8 หลายเดือนก่อน

    puedes probrar instalando otros providers ?? gracias

  • @MercuryAR
    @MercuryAR 3 หลายเดือนก่อน

    Fatz Code Se pueden instalar varios modelos y vos vas cambiando el modelo desde el VSCode?

  • @JoShMiQueL
    @JoShMiQueL 8 หลายเดือนก่อน

    Yo utilizo Codium, muy similar también.

  • @felipeyanez988
    @felipeyanez988 7 หลายเดือนก่อน

    Muchas gracias Fazt

  • @JoseOrtega-oz2zx
    @JoseOrtega-oz2zx 7 หลายเดือนก่อน

    No me funciona ,pongo consultas en el chat pero solo sale la tipica ruedecita girando en el cartel del modelo llama3:8b al lado del simbolo de home....

  • @AbelCMateos
    @AbelCMateos 14 วันที่ผ่านมา

    no se ejecuta la ventana de vienvenida de ollama

  • @lucasfernandez8314
    @lucasfernandez8314 7 หลายเดือนก่อน

    Que tema utiliza para ese video de vs code?

  • @rbjmalca2
    @rbjmalca2 22 วันที่ผ่านมา

    Y puedo usarlo en webstorm?

  • @LaCompulab
    @LaCompulab 8 หลายเดือนก่อน

    Eres un crack! De siempre

  • @jhonnybecerradelgado7781
    @jhonnybecerradelgado7781 7 หลายเดือนก่อน +1

    baje todo lo que dijiste, llama 3, codellama, mistral y variossss...pero al ejecutarlo osea al usarlo en vscode va lentísimo. mi laptop asus core i9 con 32Gb de ram. y en todo es muy rápida, nose si la IA consume todo y no seria viable. no quiero ni pensar como seria con una laptop de menos especificaciones.

    • @josuegalan6358
      @josuegalan6358 6 หลายเดือนก่อน

      Puedes usar IA en tu codigo siempre que estes conectado a wifi

  • @CarlosPadilla19
    @CarlosPadilla19 4 หลายเดือนก่อน

    Hola Fazt...
    Tengo una duda, cuando termina el instalador de Ollama, no se ejecuta la terminal para instalar el modelo Llama3
    ¿Existe una forma manual para ejecutar dicha terminal?

  • @rowilljesusbricenobarrios7680
    @rowilljesusbricenobarrios7680 8 หลายเดือนก่อน

    help no me funciona al instalar la extencion dice que algo a salido mal que vuelva intentarlo... y se queda hay for ever como el chavismo en venezuela

  • @dhernandezm
    @dhernandezm 6 หลายเดือนก่อน

    tengo problemas al descargar la extensión, simplemente se queda en blanco, no puedo ver nada de la extensión, ya intente deshabilitarla, reinicar el vsc y hasta reiniciar el pc y nada

  • @programmercito1812
    @programmercito1812 8 หลายเดือนก่อน

    ollama ya tiene llama3 cool !, que modeloz uso?

  • @fr3nch0
    @fr3nch0 7 หลายเดือนก่อน

    Excelente compa, tengo una pregunta tu que sabes más, si tú dices que llama3 fue entrenado con la información del 2022, y por eso no te muestra las nuevas características de react o cualquier otro framework, la pregunta es como puedes actualizar el modelo ? Se puede ir a Github y descargar las últimas versiones y cargarlas en el modelo y con eso podríamos tener actualizado el modelo ? O es más complicado que eso?

  • @mateoflorezjaramillo5074
    @mateoflorezjaramillo5074 7 หลายเดือนก่อน

    Si quisiera usar un gpt que me de datos actualizados cuál recomiendas ?

  • @jonabadd
    @jonabadd 8 หลายเดือนก่อน

    Buenas, gracias por la herramienta muy buena, yo tenia la duda de si al igual que github copilot, que depura el código y no lo almacena en sus servidores. En resumen si nuestro código no se hace publico utilizando esta herramienta. Saludos.

  • @brayanpuentesruiz4160
    @brayanpuentesruiz4160 8 หลายเดือนก่อน

    Grande fazt, podrías subir un vídeo de cómo conectar node con el modelo y así poder interactuar con el directamente desde el código y usarlo en proyectos? Por favor sería de gran utilidad.

  • @alfs9114
    @alfs9114 8 หลายเดือนก่อน

    Wow muchas gracias!!!

  • @AlejandroAlas-h3h
    @AlejandroAlas-h3h 8 หลายเดือนก่อน

    gracias por la informacion Fazt
    una pregunta, si tengo una gpu de amd siempre puede funcionar?

  • @mauroa.3434
    @mauroa.3434 5 หลายเดือนก่อน

    hola, no me funcionó, se queda cargando la respuesta pero no pasa nada... como puedo solucionar esto?
    muchas gracias

  • @pctops
    @pctops 8 หลายเดือนก่อน

    Fazt, podrías hacer un ejemplo de implementación de Llama 3 con algún SDK, para análisis de datos y así

  • @camilocharry
    @camilocharry 8 หลายเดือนก่อน

    a mi solo me instala Ollama pero no me permite ejecutarlo ni usar la terminal

  • @juanmiguelcontreras605
    @juanmiguelcontreras605 7 หลายเดือนก่อน

    Muchas gracias, a mi no me funciona, me imagino que puede ser por el tema de la exigencia a la tarjeta grafica. El CodeGpt esta genial, pero solo permite 5 preguntas en las demas IA

  • @mauroinde
    @mauroinde 8 หลายเดือนก่อน

    Gracias mi Sensei

  • @quizzesya
    @quizzesya 8 หลายเดือนก่อน

    Cuál pc tienes?

  • @Dun_Dev
    @Dun_Dev 8 หลายเดือนก่อน

    ¿Se puede entrenar un modelo con tu proyecto particular para que sean mucho más específicas las respuestas del chat ?

  • @Elba_Nanito_Rico
    @Elba_Nanito_Rico 7 หลายเดือนก่อน

    oye amigo Fazt podria usarlo pero con neovim?

  • @SonGoku-pc7jl
    @SonGoku-pc7jl 8 หลายเดือนก่อน +1

    Gracias! Estaba en esto de hace tiempo pero había un par de cosas que no me funcionaban. Que bien que la semana que viene den autocompletado. Llama3 va mejor incluso que codegemma para código no? mola que con una 1070 que tiene unos 8vram, si configuro windows a procesar en "económico" no se calienta a 82grados como cuando lo pongo en alto rendimiento. Un poco más lento pero más vida pal pc que esta viejito aunque aguanta :)

    • @kf_11
      @kf_11 8 หลายเดือนก่อน

      Justo iba a preguntar eso jaja parece que estoy friendo huevos en el cpu, ni con los juegos pasa de 70 °C y no vi ningún comando que limite el uso de recursos o algo

  • @CristianAndresMarin17
    @CristianAndresMarin17 8 หลายเดือนก่อน

    Puedo usarlo para redactar Commits automáticamente?

  •  8 หลายเดือนก่อน +1

    Lo que me preocupa es el consumo de memoria y procesador. Tienes este detalle?

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      Si claro aquí lo dejo github.com/open-webui/open-webui/discussions/736#discussioncomment-8474297

  • @wilovy0993
    @wilovy0993 8 หลายเดือนก่อน

    Estaria bueno un minitutorial de una rest api con AdonisJS

  • @jesanabriah
    @jesanabriah 8 หลายเดือนก่อน

    Está genial, lo malo es que me cuesta mucho la tarjeta grafica para que me corra el llama 3 jaja

  • @marvinzavala5638
    @marvinzavala5638 8 หลายเดือนก่อน

    Al utilizar Llama 3 mi CPU hace todo el proceso y mi GPU no hace nada, haciendo que sea lento y las respuestas dilatan en cargar, alguna sugerencia porfavor para utilice mi GPU, tengo una GTX 1650

  • @joeljota6363
    @joeljota6363 8 หลายเดือนก่อน +1

    Al instalarse dentro del sistema no requiere de internet entonces?

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      así es una ves instalado ya no requiere internet

  • @lbraasesoriaparatcp1948
    @lbraasesoriaparatcp1948 8 หลายเดือนก่อน +1

    Gracias bro. Y cuanto tiene que tener la máquina para que te corra esto (CPU, ram, etc..)

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน +1

      Te dejo el Post de Github donde especifican todo esto :) github.com/open-webui/open-webui/discussions/736

  • @antoniogiraldo1496
    @antoniogiraldo1496 8 หลายเดือนก่อน

    Viéndolo antes que lo ponga solo para miembros:(

  • @_holamellamojesus
    @_holamellamojesus 8 หลายเดือนก่อน

    Que tema usas en vscode?

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      Este se llama tokyo night dark

    • @_holamellamojesus
      @_holamellamojesus 8 หลายเดือนก่อน

      @@FaztCode gracias

  • @7_Seven_7_7
    @7_Seven_7_7 8 หลายเดือนก่อน

    Gracias bro

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      Con gusto :)

  • @fcomosan
    @fcomosan 8 หลายเดือนก่อน

    y con esta implementacion, te autocompleta el codigo, asi como lo hace copilot?

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน +1

      Aun no, pero esta semana actualizan la extensión para que también permita autocompletar

    • @fcomosan
      @fcomosan 8 หลายเดือนก่อน

      @@FaztCode ah buena noticia. Lo dejare descargando para probarlo. Muy buen video Fatz

  • @arielangelsantillanreyna2947
    @arielangelsantillanreyna2947 8 หลายเดือนก่อน +1

    Que genial fazt, una pregunta sabes cuales son los requisitos de hardware para ejecutar llama3?

    • @ANGHELLUZ
      @ANGHELLUZ 8 หลายเดือนก่อน

      Existen dos variantes: Llama 3 8B, si tienes un sistema con recursos limitados y Llama 3 70B, mientras cuente con un
      rendimiento excepcional, pero con mayores demandas de hardware. Aquí están los detalles sobre estos modelos y los
      requisitos de hardware para ejecutarlos localmente:
      1. Llama 3 8B:
      - Requisitos mínimos de hardware:
      + RAM: Al menos 16 GB
      + GPU: Una GPU potente con al menos 8 GB de VRAM, preferiblemente GPU NVIDIA con soporte CUDA
      + Disco Duro: 4 GB
      2. Llama 3 70B:
      - Requisitos mínimos de hardware:
      + RAM: 64 GB o más
      + GPU: Una GPU potente con al menos 8 GB de VRAM, preferiblemente GPU NVIDIA con soporte CUDA
      + Disco Duro: 20 GB

  • @emerson.dvlmt.g
    @emerson.dvlmt.g 8 หลายเดือนก่อน

    Se puede entrenar un modelo de Llama?

    • @jossejosse952
      @jossejosse952 8 หลายเดือนก่อน

      Para eso busca información como, como hacer un ajuste fino en un modelo preentrenado.

  • @andres3665
    @andres3665 8 หลายเดือนก่อน +2

    Me corre a una palabra por minuto, pero gracias.

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      jaja si lamentablemente aun estos modelos consumen muchos recursos de hardware, con una buena grafica se tienen que usar

  • @davidreyna7198
    @davidreyna7198 7 หลายเดือนก่อน

    Se podrá utilizar este asistente en una página web?

    • @FaztCode
      @FaztCode  7 หลายเดือนก่อน +1

      Si podrias desplegarlo en un VPS y consumirlo desde alli al estilo de la API de OpenAI

  • @yorjansandoval9381
    @yorjansandoval9381 4 วันที่ผ่านมา

    name theme, please?

  • @MercuryAR
    @MercuryAR 3 หลายเดือนก่อน

    CodeGPT se puede conectar a ChatGPT?

    • @luiggymacias5735
      @luiggymacias5735 3 หลายเดือนก่อน

      no pues, chatgpt es la interfaz, solo existe una, lo que se puede conectar es a los modelos de openai como gpt 4, para eso necesitas el api key, pero no es gratis te cobran por token dependiendo de que modelos elijas te sale mas barato o caro

    • @MercuryAR
      @MercuryAR 3 หลายเดือนก่อน

      @@luiggymacias5735 O sea que en este caso no te sirve ser usuario de pago en ChatGPT, para integrarlo digo

  • @rbnsmalca5945
    @rbnsmalca5945 8 หลายเดือนก่อน

    es de meta?🤔

  • @Axotla
    @Axotla 8 หลายเดือนก่อน +1

    en mi maquina esta super lento

    • @FaztCode
      @FaztCode  8 หลายเดือนก่อน

      Si hasta la fecha los modelos inteligentes requieren alguna tarjeta grafica o un buen procesador para que vaya fluido

    • @CarlosHidalgoLa
      @CarlosHidalgoLa 6 หลายเดือนก่อน +1

      Requerimientos:
      Modelos Pequeños (7B - 13B parámetros): RAM 16-32 GB, CPU Intel i7/i9 o AMD Ryzen 7/9, GPU opcional de 8 GB VRAM (NVIDIA RTX 3060).
      Modelos Medianos (30B - 65B parámetros): RAM 32-64 GB, CPU Intel i9 o AMD Ryzen 9, GPU de 16 GB VRAM (NVIDIA RTX 3080/3090).
      Modelos Grandes (175B parámetros y superiores): RAM 64-128 GB, CPU Intel Xeon o AMD Threadripper, múltiples GPUs con 24 GB VRAM cada una (NVIDIA A100, RTX 3090).

  • @cristianbustamante62
    @cristianbustamante62 8 หลายเดือนก่อน

    si tengo una tarjeta de video integrada AMD Ryzen 5 3400G ¿sirve igual? ¿cuanto de ram se necesita? saludos

    • @kf_11
      @kf_11 8 หลายเดือนก่อน +1

      De lo que he probado, con Ryzen 3 3200G, funciona sí, pero usa 100% del CPU, para la RAM en cuanto al proceso ollama_llama_server usa 4.6 GB, de la GPU integrada es muy poco el uso 400MB aprox. Tengo 16GB de RAM a 3200MHz
      Resumiendo, al menos con mi procesador la temperatura se va a 82 °C con disipador stock, no recomendable jaja a menos que le bajes la energía máxima al procesador a costa de que tarde más en responder o tener un disipador muy bueno.
      Podrías probar a ver cómo funciona el en Ryzen 5, no pierdes nada. Solo cuestión de ver las temperaturas, posiblemente con una gráfica mejore el uso del CPU.

    • @cristianbustamante62
      @cristianbustamante62 8 หลายเดือนก่อน +1

      @@kf_11 gracias por tu respuesta

    • @ZeroCool22
      @ZeroCool22 7 หลายเดือนก่อน

      @@kf_11 Yo tengo:
      Ryzen 5900x
      GPU: Nvidia 1080 TI (11gb de VRAM)
      RAM: 32GB.
      Cual modelo me recomendás probar?

    • @kf_11
      @kf_11 7 หลายเดือนก่อน

      @@ZeroCool22 TH-cam no deja poner links, pero hay un hay un post de GitHub. Los modelos van:
      - Modelo 7B - 4GB VRAM
      - Modelo 13B - 8GB VRAM
      - Modelo 30B - 16GB VRAM
      - Modelo 65B - 32GB VRAM

    • @kf_11
      @kf_11 7 หลายเดือนก่อน

      @@ZeroCool22 En tu caso se podría al 13B

  • @JulioCampoSwork
    @JulioCampoSwork 8 หลายเดือนก่อน +1

    va a explotar mi computadora, no se si lo vale

  • @Christianlvm22
    @Christianlvm22 8 หลายเดือนก่อน

    Necesito un super pc?

  • @joze.rios44
    @joze.rios44 4 หลายเดือนก่อน

    no sirve si no es en tiempo real, porque despues del 2022, muchas cosas opiamente se actualizaron

  • @yancedywiler
    @yancedywiler 7 หลายเดือนก่อน +1

    Fazt excelente video, gracias por compartir tu conocimiento y enseñar las cosas paso a paso.
    Te sigo hace tiempo, con este video aprendí a crear mi primera página HTML
    th-cam.com/video/rbuYtrNUxg4/w-d-xo.html
    Desde ahí me sigo capacitando y aprendiendo cada vez tecnologías nuevas, ese hecho ha cambiado mi vida y me ha abierto puertas a trabajar para empresas.

  • @claropccell7391
    @claropccell7391 2 หลายเดือนก่อน

    hola :D me sale esto v3.5.120
    Unable to connect to the extension services
    Requirement
    Required
    System
    VSCODE
    ^1.82.0
    1.93.1
    Vscode Node
    >=18.0.0
    20.15.1
    App Default Port
    54112
    Troubleshooting

  • @nilobrayanvallejopablo564
    @nilobrayanvallejopablo564 4 หลายเดือนก่อน

    asu a ti te corre muy rápido xd
    en mi pc demora demasiado

  • @tino94
    @tino94 8 หลายเดือนก่อน

    Mi vieja GPU aparentemente no es compatible (AMD rx 570) asi que va a puro CPU 🥵

  • @Johan-zs9xh
    @Johan-zs9xh 8 หลายเดือนก่อน

    Que dizes tio !!

  • @Elba_Nanito_Rico
    @Elba_Nanito_Rico 8 หลายเดือนก่อน

    Si fazt está conmigo, ¿Quien contra mi?

  • @ThePacmanPl4y
    @ThePacmanPl4y 7 หลายเดือนก่อน +1

    La verdad es una herramienta muy simplona, y funciona solo en ingles y la verdad bastante mal, hasta con lmstudio. Nada interesante.

  • @leviatanMX
    @leviatanMX 7 หลายเดือนก่อน

    lo malo es que solo se enfocan en lengujajes conocidos

    • @FaztCode
      @FaztCode  7 หลายเดือนก่อน

      Debe ser por el entrenamiento que usan

  • @danielarojas-d3e
    @danielarojas-d3e 6 หลายเดือนก่อน

    Si tu pc es una mierda ni lo piense

  • @untalbj
    @untalbj 8 หลายเดือนก่อน

    pta q lento xd