"Dueños del tablero" si es verdad porque no denuncias, te quejas del monopolio? En vez de aplaudir y señalar al jefe. No creo que sean dueños del tablero, fabrican operadores. Si hay tablero sería la neurología no ? "Plagia", por lo que entonces confirmas que la IA plagia. Eso tampoco te parece grave? Prefieres motivar la falsa confirmación del plagio? Cómo es esto? "Los hombres violan ?" Menuda manera de asociar radicalmente sesgada. Si la IA plagia porqué la considerarla IA generaliza? ni siquiera es capaz de generar, tu dices que está plagiado. Solamente puedo tener la conclusión de que se está aplaudiendo la narrativa sesgada y alegrandose del monopolio. Supongo que en el futuro se verá diferente toda esta fiebre.
Los lápices y los bolis plagian a los artistas que los prohíban y que le corten los dedos a Quien los use. Jajaja la IA no copia, la IA no hace nada, es la gente que fuerza la IA para plagiar los que plagian
Jo...! La produccion, no solo las graficas que ayudan a entender, sino el orden que le das a la info para que todo vaya teniendo sentido es simplemente inmejorable (y admirable)! Gracias tanto trabajo y dedicacion!
gran video como siempre y la gente cree que la IA salió de la nada hace 1 año y no toma en cuenta la cantidad de cosas que pasaron para que fuera posible
varas eso existe desde siempre bicho. no me digas acaso crees en lo paneles solares? si llevan vendiendoles desde los 50. los mentirosos son faciles de enganar.
Hola, muchísimas gracias por tus vídeos. Empecé estudiar ML viendo tus primeros vídeos sobre redes neuronales. Sería genial volver a ver ese tipo de vídeos que te forzaban a pensar y a aprender cosas nuevas. Entiendo que youtube no favorece ese tipo de contenidos pero tu haz logrado enseñar cosas complicadas de una manera más amena donde da gusto aprender. Por favor, pudieras hablar sobre DSPy? O tal vez de vez en cuando hablar sobre algún paper y explicarlo.
Yo no entiendo nada o casi nada de este maravilloso mundo de la programación, pero en este canal explican las cosas de manera tan didáctica que aún sin entender la mayor parte, me gusta quedarme hasta el final 😊
esto no es mas que lo que el mismo ser humano hace, eso se llama logica, no hay ningun tipo de inteligencia y menos artificial, es la misma cosa que hace un switch cuando es programado, no se puede crear algo artificial si naturalmente no existe, el ser humano siempre es facil de manipular hay que ver lo que paso con el primer ser que vio el fuego, yo imagino que el pobre no sabia si era dios o algo asi, hoy en dia el fuego es a menos que destruya tu casa algo sin mas importancia de la que tiene... esto simplemente es automatizar pasos, que tiene mas precisicion y rapidez que el cerebro humano, puede ser, y digo puede ser porque el cerebro humano tiene mas poderes que una simple maquina, pero como no tenemos inteligencia creemos que esas maquinas son la maximo, simplemente saquela del enchufe y haber donde esta la pendejada, estamos simplemente haciendole el juego a las grandes empresas embaucadoras.. y lo que viene con esta pendejada es hambruna y mas monopolio, porque el pobre ser humano aun no despierta
Las palabras tienen poder no lo digas con tu boca 👄 di algo positivo aunque te sientas raro
9 หลายเดือนก่อน +7
Gran vídeo, muy bien hilado el momento y la necesidad con un buen repaso histórico. Al final. el dueño de la cancha propicia un juego más amplio, aunque preocupa, y mucho, que NVIDIA tenga buena parte de las canchas, bueno, ni siquiera sé si hay alguna otra cancha. Y aquí viene la necesidad de otro vídeo para tener el panorama completo, ¿y si no es / no está / falla / cae NVIDIA, entonces quién?
No es publicidad, simplemente cuenta las cosas como son, Nvidia domina, AMD está intentando alcanzar e Intel no está ni se le espera pronto... Y pues no sé cómo sea DotCSV pero supongo que no le hará mucha gracia el monopolio de Nvidia.
Información? Esto es un publirreportaje de NVIDIA, que a saber cuántas 4080 le habrá dado por esto. Pero ni una mención a las MI300 de AMD, que tienen más del doble de memoria que las H100 y casi el doble de ancho de banda. Y por supuesto ni una mención al advanced packaging ni al salto tecnológico que eso supone. Lo dicho, un publirreportaje tal cual. Que está en todo su derecho a hacerlo. Pero luego uno tiene que tener un mínimo de filtro y pensamiento crítico para poder estar "informado".
Que sitios, videos, etc. en especifico me recomiendan para aprender a usar la GPU en modelado molecular aplicado en estructura electrónica, dinámica y docking molecular?
He presentado este enero un TFG sobre la utilización y modificación de un simulador de las arquitectura de NVIDIA de código abierto para investigación (se llama GPGPU-sim). Muy curioso la casualidad y que la introducción del video hable de lo mismo que la de mi TFG y las motivaciones. Curiosa coincidencia, demuestra la importancia de estos temas jajajaja
Video genial, pero creo que hay un detalle importante que no has mencionado. Con respecto a la competencia y es lo cómodo que es utilizar las herramientas de NVIDIA porque es una solución end-to-end demasiado buena. Porque puedes tener empresas como Google que también tiene TPUs (aunque por el momento sean mucho más "pequeñas") o Intel con procesadores vectoriales (o FPGA aunque es otra historia). Pero para utilizarlas en un mismo modelo hay que programar en OpenCL (el equivalente a Cuda open source) y realizar montones de ajustes y optimización manuales que en la mayoría de casos no llegan ni de lejos a el rendimiento del mismo modelo (kernels adaptados) en Cuda en default y hardware de NVIDIA. No sólo tienen la ventaja en Hardware, también en Software
La ley de Moore original, predecía la duplicación de transistores en un chip, cada 18 meses. El problema es que con los años eso dejó de ser posible y para poder seguir cumpliéndose con la ley, lo que Intel hizo fue cambiar el enunciado y donde antes eran 18 meses, pasaron a ser 24 meses (2 años).
@dotCVS como va la preparación del GTC, ojala puedas asistir a esta conferencia que solo es en persona Open-Source Autonomous Vehicle Simulation With CARLA [S62468] Wednesday, Mar 20 12:00 AM - 12:25 AM CET
Nvidia tenia el monopolio de las GPUs de hacia tiempo, la vision de desarollar CUDA y apostar por la computacion a nivel de GPU y el Deep Learning pre-2016 es lo que les ha dejado en la situacion privilegiada que estan. El dinero que ganan con las GPUs de sobremesa/crypto es negligible, el dinero lo sacan de vender a DataCenters
Estimado, yo tambien asistiré al evento GTC. He desarrollado productos en la NVidia Jetson Nano y me interesa muchisimo lo nuevo que van a presentar. Espero verte por allá.
18:38 y si nosotros somos un NNPC orgánico?, somos simplemente un producto generado por computadoras de otros seres de otra dimension o de otros planetas?, simplemente para hacer un estudio como simulación de que le paso a la humanidad que se extinguió hace miles de años?
Cómo siempre dando grandes datos, información genial y con una producción muy preciosa, gracias por otra chulada de video compa Dot.
9 หลายเดือนก่อน +2
Jeje, justo hace una semana que me compré una rtx 4080 super, me interesa mucho eso del acelerador de SD, podrías hacer un vídeo sobre eso? Muchas gracias máquina
Gracias a tu canal me compre mi RTX 3060 de 12 gb. y aunque no soy tan experto he ido haciendo mis pequeños experimentos en lo que mi tiempo me permite. me he divertido mucho con esto. te gradezco mucho por facilitar un tema tan complejo y que me permita participar de este fenomeno de la AI aunque sea solo de manera superficial, pero a la vanguardia hahahahah.
Te entiendo, empecé en colab, pero después hcieron cambios y ya no pude hacer uso de colab. jum. Tuve suerte te soy honesto. Junté y justo cayó una Promo. Vete juntando de poco en poco, igual y también te toque una buena racha. No hay peor esfuerzo que el que no se hace. La computadora la pedí por amazon de esas refurbished que les dicen. y pues no es un maquinón, pero sacía la curiosidad hehehehe. @@ronaldb.arteaga5325
la compre por mi cuenta. y se la instale a la PC, fue todo un problema, pero quedó hahaha. La verdad sentía que no me la iba a poder comprar pero se dió todo para que pasara. Estubo bien raro. @@bobobo1673
Si, me sorprende todo el Hype de video que hizo cuando goggle anunció gemini y luego cuando finalmente lo han puesto en funcionamiento abierto al publico no hace ni un triste comentario
Tener este contenido, en español, es un lujo. Gracias! Siempre que veo estos videos aprendo algo nuevo y me provoca curiosidad por seguir investigando. Como desarrolador web, está claro que ya ha empezado la nueva revolución industrial, me cuesta creer donde vamos a estar en 5 años.
Hola. Me encanta el contenido, que bueno tener divulgadores como tú. Oye ¿Podrías hablar de los avances de AI en que trabaja AMD? Sería genial ver también esa competencia entre gráficas, a partir de los avances de la AI.
Como mucho intenta ir sacando unos años despues lo que innovó nvidia, realmente nvidia si una cosa sabe hacer bien, es el I +D. Solo hace falta ver las GTC de nvidia vs las de AMD, este ultimo solo hace marketing que se junta con ciertas empresas. Con nvidia flipas con esas gtc. Te invito haberla. Riete de el monopolio de windows o tsmc 😂
@@Lu-dm9eehay mercado de sobra y AMD sigue creciendo y mejorando. No al nivel de nvidia pero no descartes nada, y menos cuando las gpu se volvieron incomparables
@@Lu-dm9ee NVidia empezó mucho antes a invertir en IA, lleva una ventaja enorme. AMD se ven obligados a seguir los pasos de NVidia. La mayoría de software está optimizado para Cuda, que es propiedad de NVidia, por lo que AMD tiene que desarrollar su propio hardware y software y además conseguir que las apps empiecen a usarlos. Básicamente, el que llega primero se sirve dos veces.
ROCM en Linux y HIP SDK en Windows hacen la mayoría de programas acelerados por CUDA compatibles con AMD, han avanzado bastante, aunque aún van detrás de Nvidia. Pero por ejemplo Raja Koduri (Ex ATI (antes de la compra de AMD), Apple, AMD e Intel, líder en GPU en la mayoría de empresas que ha trabajado), dice que para su startup de AI va a usar más AMD e Intel ya que le dan más Flops por dólar y si usas código tipo pytorch que es agnóstico de GPU pues es mejor calidad-precio.
@@camiller1988 supongo que quisiste decir incomprables. Claro, porque no tiene competencia... La unica opcion, es que AMD, Intel, apple, Microsoft, amazon, tesla, etc... Se unieran a diseñar y fabricar chips y ecosistemas de IA juntos. No puede ser que solo se este comprando hardware de nvidia.
19:16 o el santo grial del desarrollo Gaming: de forma sencilla darles a bots multiplayer y a enemigos dentro del juego, estrategias muy similares a jugadores humanos, para mejorar la experiencia del usuario final. Y digo de forma sencilla, porque el entrenamiento de las IAs en Gaming es un proceso que requiere un desarrollo complejo y aveces desde 0 para los desarrolladores. Imagine que pronto se les pueda dar como info de entrenamiento, gameplays de usuarios reales o cierta meta data asociada nada más, y que a partir de esta; los enemigos y/o bots fueran más "inteligentes" en sus estrategias y ataques... Imaginen esto en Elden Ring, por ejemplo.
9 หลายเดือนก่อน +1
Yo voy a presentar un póster en el GTC. Nos vemos ;-)
Muy ilustrativo este video. Gracias. Ahora leo un artículo de Xataca y me ha quedado claro, el título dice: "El superordenador más potente de NVIDIA está listo. Tiene 4.608 GPU H100 y es una bestia para IA generativa"
Llegué a 200k hoy. Estoy realmente agradecido por todo el conocimiento y las pepitas que me han brindado durante los últimos meses. Comenzó con 14k en junio de 2023
Interesante reflexión sobre cómo las GPUs de NVIDIA se convirtieron en el pilar del Deep Learning. Sin duda, están liderando el camino hacia la próxima era de la IA. ¡Gracias por el video!
consulta, si al final de la cadena es la gpu del consumidor procesa el juego, por ejemplo, en caso de ser agresiva, estaríamos todos viendo un juego un pelín distinto? ¿debido a que las IA no generar dos veces la misma cosa o no? :s help
Piensa que ahora mismo la IA en videojuegos ya es bastante agresiva. Estamos hablando de que con DLSS puedes renderizar un juego en 1080p y escalarlo a 4k. Eso significa que la tarjeta gráfica solo está rasterizando un 25% de los pixeles que se muestran en pantalla. Si a eso le sumas el DLSS 3.0 que duplica los FPS reduciría otro 50% el rasterizado. Por lo que actualmente con esas tecnologías activas solo estaría rasterizando el 12,5% de los pixeles en pantalla. A mí me parece bastante agresiva la IA.
ojo la pausa al final, hace que caiga la conciencia en el momento silencioso, el vacio genera una respuesta en espera al oyente. y estas son likes comment etc. y esta muy bien que las noticias las dejes al final y cualquier publicidad. Ni yo habia caido en cuenta de esto y si lo hiciste por enfatizar, pues te felicito haz descubierto algo
Me resulta curioso como se viene un enorme tsunami encima que va a transformar totalmente el mundo e incluso la gente que ve este canal solo se preocupa por los juegos.
@_Elian No te equivoques, la revolucion que supone la IA ha sido acelerada por el hecho que existieran GPUs pero dichas GPU de aceleracion grafica habrian existido igualmente para acelerar software que tambien las necesita, como 3Dstudio, autocad, o blender. Además las GPU de uso domestico hace MUCHO que no tienen nada que ver con las que se usan en grandes granjas de servidores de computacion de IA. ¿Acaso tienes una H100 en tu casa para jugar al call of duty? Resumiendo, no sabes lo que dices, la IA existiria exactamente igual sin videojuegos.
@_ElianNo, el mayor y autentico desarrollo de las GPU aun no ha llegado ni probablemente llegue nunca al que las usa para juegos. La potencia de calculo en paralelo que tiene una H100 (y la cantidad de Vram) esta varios ordenes de magnitud por encima de cualquier tarjeta grafica domestica. Es otro nivel de desarrollo completamente diferente exclusivamente impulsado por el fenomeno IA, totalmente independiente desde su inicio del desarrollo de GPUs para uso domestico.
@_ElianEstamos entrando en bucle, ya te he dicho que las primeras GPU habrian existido exactamente igual aun sin videojuegos lo cual invalida el argumento de tu ultimo mensaje pero vuelves a repetirlo. Por aclarar un poco mas las librerias CUDA tambien habrian existido exactamente igual dado que existiendo las GPU habia varios usos cientificos para esa capacidad de proceso en paralelo. En particular las operaciones con matrices son muy utiles para muchos calculos matematicos implicados en muchas disciplinas de investigacion cientifica, no solo la IA. Nvidia supo ver eso y por ello desarrollaron CUDA, insisto, N O fue por los videojuegos.
@_ElianEstas dandole la vuelta a lo mismo y repitiendo con otras palabras argumentos que ya te he rebatido. Yo por mi parte veo absurdo seguir insistiendo con alguien que claramente no razona. Si necesitas tener razon tienes mi completa bendicion para ir por el mundo pensando que el desarrollo de la IA ha sido gracias a los videojuegos, ve en paz.
🟢 ¡REGÍSTRATE AL GTC y GANA UNA GPU RTX 4090! 🟢
👉 x.com/DotCSV/status/1759986022916731284?s=20 👈
"Dueños del tablero" si es verdad porque no denuncias, te quejas del monopolio? En vez de aplaudir y señalar al jefe. No creo que sean dueños del tablero, fabrican operadores. Si hay tablero sería la neurología no ?
"Plagia", por lo que entonces confirmas que la IA plagia. Eso tampoco te parece grave? Prefieres motivar la falsa confirmación del plagio? Cómo es esto? "Los hombres violan ?" Menuda manera de asociar radicalmente sesgada. Si la IA plagia porqué la considerarla IA generaliza? ni siquiera es capaz de generar, tu dices que está plagiado.
Solamente puedo tener la conclusión de que se está aplaudiendo la narrativa sesgada y alegrandose del monopolio. Supongo que en el futuro se verá diferente toda esta fiebre.
Los lápices y los bolis plagian a los artistas que los prohíban y que le corten los dedos a Quien los use. Jajaja la IA no copia, la IA no hace nada, es la gente que fuerza la IA para plagiar los que plagian
Vengan ayudarnos a yegar Aya no sabemos yegar se apuran
❤
El nivel de produccion de Dot CSV es alucinante
Es cine, yo tengo ya un ritual, sea la hora que sea mi café y dejo todo para ver estos pedazo de videos
Esque los videos los hace mediante ia
Yo le he preguntado como los edita pero no me ha contestado 😢. Me gustaría aprender a mi nivel...
Yo se los edito
@@shaneambany6198 pero que usáis? Como podría yo crear cosas parecidas?
Jo...! La produccion, no solo las graficas que ayudan a entender, sino el orden que le das a la info para que todo vaya teniendo sentido es simplemente inmejorable (y admirable)! Gracias tanto trabajo y dedicacion!
Qué gran información. Muchas gracias por darnos luz en todo esto... ¡Va muy rápido!
gran video como siempre y la gente cree que la IA salió de la nada hace 1 año y no toma en cuenta la cantidad de cosas que pasaron para que fuera posible
varas eso existe desde siempre bicho. no me digas acaso crees en lo paneles solares? si llevan vendiendoles desde los 50. los mentirosos son faciles de enganar.
Videazo. Recomiendo ver la entrevista a Jensen de los cracks de Acquired
Hola, muchísimas gracias por tus vídeos. Empecé estudiar ML viendo tus primeros vídeos sobre redes neuronales. Sería genial volver a ver ese tipo de vídeos que te forzaban a pensar y a aprender cosas nuevas. Entiendo que youtube no favorece ese tipo de contenidos pero tu haz logrado enseñar cosas complicadas de una manera más amena donde da gusto aprender. Por favor, pudieras hablar sobre DSPy? O tal vez de vez en cuando hablar sobre algún paper y explicarlo.
Creo que si quieres eso tienes que ir a DotCSV Lab o pagar su máster.
Hola. Tenes algun grupo de estudio?
@@GianfrancoGonzalez-b5f Hola. No tengo un grupo de estudio pero sería interesante poder compartir con más personas.
Basicamente debería poner todos los ahorros de mi vida en nvidia
Yo no entiendo nada o casi nada de este maravilloso mundo de la programación, pero en este canal explican las cosas de manera tan didáctica que aún sin entender la mayor parte, me gusta quedarme hasta el final 😊
¡Gracias!
El mes que viene Carlos coge un avión, perfecto, ya sabemos cuándo saldrá GPT-5
XD
😂😂😂
esto no es mas que lo que el mismo ser humano hace, eso se llama logica, no hay ningun tipo de inteligencia y menos artificial, es la misma cosa que hace un switch cuando es programado, no se puede crear algo artificial si naturalmente no existe, el ser humano siempre es facil de manipular hay que ver lo que paso con el primer ser que vio el fuego, yo imagino que el pobre no sabia si era dios o algo asi, hoy en dia el fuego es a menos que destruya tu casa algo sin mas importancia de la que tiene... esto simplemente es automatizar pasos, que tiene mas precisicion y rapidez que el cerebro humano, puede ser, y digo puede ser porque el cerebro humano tiene mas poderes que una simple maquina, pero como no tenemos inteligencia creemos que esas maquinas son la maximo, simplemente saquela del enchufe y haber donde esta la pendejada, estamos simplemente haciendole el juego a las grandes empresas embaucadoras.. y lo que viene con esta pendejada es hambruna y mas monopolio, porque el pobre ser humano aun no despierta
Estoy teniendo una pésima semana, pero saber que hay nuevo video de DotCSV la hace un poco mejor. Gracias! 😊❤
¡Ánimo!
Somos dos pero llevo son 3 meses 😅
Las palabras tienen poder no lo digas con tu boca 👄 di algo positivo aunque te sientas raro
Gran vídeo, muy bien hilado el momento y la necesidad con un buen repaso histórico. Al final. el dueño de la cancha propicia un juego más amplio, aunque preocupa, y mucho, que NVIDIA tenga buena parte de las canchas, bueno, ni siquiera sé si hay alguna otra cancha. Y aquí viene la necesidad de otro vídeo para tener el panorama completo, ¿y si no es / no está / falla / cae NVIDIA, entonces quién?
No te entendí ni madres pero me encanta 😮
Las gpu fueron pensadas para hacer muchas multiplicaciones para dar imágenes en pantalla. Crearon un programa(CUDA) que permite aprovecharlo para IA
Carajo 20 minutos de buena publicidad. Gracias
O sea no le entendiste
No es publicidad, simplemente cuenta las cosas como son, Nvidia domina, AMD está intentando alcanzar e Intel no está ni se le espera pronto... Y pues no sé cómo sea DotCSV pero supongo que no le hará mucha gracia el monopolio de Nvidia.
Pues ya puedes descargar Chat with RTX. Rezo por las difuntas series RTX 20s.
Gracias por el aviso 👍🏼👍🏼👍🏼
Hasta aquí oigo los lloros
excelente video !!
- en todo, edicion, informacion, presentacion
Información? Esto es un publirreportaje de NVIDIA, que a saber cuántas 4080 le habrá dado por esto.
Pero ni una mención a las MI300 de AMD, que tienen más del doble de memoria que las H100 y casi el doble de ancho de banda. Y por supuesto ni una mención al advanced packaging ni al salto tecnológico que eso supone.
Lo dicho, un publirreportaje tal cual. Que está en todo su derecho a hacerlo. Pero luego uno tiene que tener un mínimo de filtro y pensamiento crítico para poder estar "informado".
Que sitios, videos, etc. en especifico me recomiendan para aprender a usar la GPU en modelado molecular aplicado en estructura electrónica, dinámica y docking molecular?
He presentado este enero un TFG sobre la utilización y modificación de un simulador de las arquitectura de NVIDIA de código abierto para investigación (se llama GPGPU-sim). Muy curioso la casualidad y que la introducción del video hable de lo mismo que la de mi TFG y las motivaciones. Curiosa coincidencia, demuestra la importancia de estos temas jajajaja
Tus vídeos siempre son los mejores
Estaba esperando este video. Ya bajé el modelo de Nvidia, son 35Gb
Gracias Carlos. Excelente información.
Video genial, pero creo que hay un detalle importante que no has mencionado. Con respecto a la competencia y es lo cómodo que es utilizar las herramientas de NVIDIA porque es una solución end-to-end demasiado buena. Porque puedes tener empresas como Google que también tiene TPUs (aunque por el momento sean mucho más "pequeñas") o Intel con procesadores vectoriales (o FPGA aunque es otra historia). Pero para utilizarlas en un mismo modelo hay que programar en OpenCL (el equivalente a Cuda open source) y realizar montones de ajustes y optimización manuales que en la mayoría de casos no llegan ni de lejos a el rendimiento del mismo modelo (kernels adaptados) en Cuda en default y hardware de NVIDIA. No sólo tienen la ventaja en Hardware, también en Software
muchas gracias por esta actualizacion increible todo lo que esta pasando.
¿Qué te parece un podcast de IA? solo propongo, preguntalo al publico
Hay más publico en TH-cam, no merece la pena.
La ley de Moore original, predecía la duplicación de transistores en un chip, cada 18 meses. El problema es que con los años eso dejó de ser posible y para poder seguir cumpliéndose con la ley, lo que Intel hizo fue cambiar el enunciado y donde antes eran 18 meses, pasaron a ser 24 meses (2 años).
Excelente Carlos, como siempre. Saludos
Muy bueno tu canal muy bien explicado la evolucion de nvidia
Que increíble, let’s take advantage of this and create companies on top of this ❤
Impresionante y muy muy muy entretenido video, un perfecto complemento para tu genial libro. Muchas gracias por hacerlos.
Excelentisimo Carlos!!!! 🙌🙌🙌
@dotCVS como va la preparación del GTC, ojala puedas asistir a esta conferencia que solo es en persona Open-Source Autonomous Vehicle Simulation With CARLA [S62468]
Wednesday, Mar 20
12:00 AM - 12:25 AM CET
Tbm se puede otorgar una parte del crecimiento de nvidia a las crypto monedas.
Y todo el crecimiento era beneficioso para las ias
Nvidia tenia el monopolio de las GPUs de hacia tiempo, la vision de desarollar CUDA y apostar por la computacion a nivel de GPU y el Deep Learning pre-2016 es lo que les ha dejado en la situacion privilegiada que estan. El dinero que ganan con las GPUs de sobremesa/crypto es negligible, el dinero lo sacan de vender a DataCenters
Hola Carlos... una cosa. acabo de ver tu entrevista en Trends and newss... ponla aquí ya. es Genial. te sales , Tio. Fuerza ahí... Eres el amo.
Pedazo de video. Explicado con pasión por la temática y pedagogicamente para todos.
Gran divulgador y gran labor. Gracias!
Ahora si a intentar ejecutar en local el rtx, a ver que sale❤
Estimado, yo tambien asistiré al evento GTC. He desarrollado productos en la NVidia Jetson Nano y me interesa muchisimo lo nuevo que van a presentar. Espero verte por allá.
Wow que exelente trabajo. Muchas gracias por el vídeo.
Lo mejor el final del vídeo.
Como siempre, un lujo escucharte. Estaremos atentos a tus comentarios en el evento y a tu selfie👍.
Wow! Sin desperdicio. Gracias Carlos.
🎯 Key Takeaways for quick navigation:
00:02 *Batalla industrial IA*
01:02 *Nvidia reorientación GPU*
03:22 *Paralelización redes neuronales*
05:24 *Gpus aceleran Deep Learning*
06:22 *Crecimiento rendimiento gpus*
09:12 *Potencia gpus H100*
11:34 *Batalla IA ha comenzado*
12:01 *Evolución hardware IA*
13:51 *Brecha ejecución modelos IA*
15:00 *Futuro tarjeta generativa*
16:38 *Nvidia potencia AI*
17:46 *Consumidores demandan AI*
18:41 *Chat with RTX*
19:36 *Neural NPCs*
20:38 *Nvidia lidera semiconductores*
21:06 *Asistencia al GTC*
Made with HARPA AI
Ese video del ajedrez lo hiciste con Sora?
Azooo!!! que bacán toda la información que nos brindas!!!
No creo que haya otro lugar donde se pueda aprender mejor que aquí, menuda máquina
wow excelente video, diálogo, producción, todo excelente!
18:38 y si nosotros somos un NNPC orgánico?, somos simplemente un producto generado por computadoras de otros seres de otra dimension o de otros planetas?, simplemente para hacer un estudio como simulación de que le paso a la humanidad que se extinguió hace miles de años?
😁 Que te vaya muy bien !!!! Y nos traigas mucha información ------- 👍
Me encantó la intro... 😂😂😂❤😅
Las tarjetas Nvidia Quadro ya dejaron de existir? o ya no son necesarias con los avances en la GeForce?
que bien comunica el Carlos, caray no me entero de nada pero me veo el video completo 👍👍
Cómo siempre dando grandes datos, información genial y con una producción muy preciosa, gracias por otra chulada de video compa Dot.
Jeje, justo hace una semana que me compré una rtx 4080 super, me interesa mucho eso del acelerador de SD, podrías hacer un vídeo sobre eso? Muchas gracias máquina
Gracias a tu canal me compre mi RTX 3060 de 12 gb. y aunque no soy tan experto he ido haciendo mis pequeños experimentos en lo que mi tiempo me permite. me he divertido mucho con esto. te gradezco mucho por facilitar un tema tan complejo y que me permita participar de este fenomeno de la AI aunque sea solo de manera superficial, pero a la vanguardia hahahahah.
Eso ya es mucho amigo, yo no tengo para comprarme esos componentes, nomas estoy escuchando e informándome jajajja
Te entiendo, empecé en colab, pero después hcieron cambios y ya no pude hacer uso de colab. jum. Tuve suerte te soy honesto. Junté y justo cayó una Promo. Vete juntando de poco en poco, igual y también te toque una buena racha. No hay peor esfuerzo que el que no se hace. La computadora la pedí por amazon de esas refurbished que les dicen. y pues no es un maquinón, pero sacía la curiosidad hehehehe. @@ronaldb.arteaga5325
Te compraste la tarjeta por tu cuenta o ya venia con el pc?
la compre por mi cuenta. y se la instale a la PC, fue todo un problema, pero quedó hahaha. La verdad sentía que no me la iba a poder comprar pero se dió todo para que pasara. Estubo bien raro. @@bobobo1673
Me encanta lo formativo que son los videos y el nivel de producción que tiene. 10 de 10
Espero ver pronto tu opinión y comparativa del modelo Gemini Ultra 1.0
Si, me sorprende todo el Hype de video que hizo cuando goggle anunció gemini y luego cuando finalmente lo han puesto en funcionamiento abierto al publico no hace ni un triste comentario
Gracias, gracias tremendos crack!!
Tener este contenido, en español, es un lujo. Gracias!
Siempre que veo estos videos aprendo algo nuevo y me provoca curiosidad por seguir investigando.
Como desarrolador web, está claro que ya ha empezado la nueva revolución industrial, me cuesta creer donde vamos a estar en 5 años.
Muy buen video pero... ni una sola mencion a la competencia y su estado? Comparaciones? Porque esta tan adelante?
Muy interesante. Este video me da una idea de en qué emplear la IA.
Si vas a estar de forma presencial no va a existir el directo?
Eres un grande!aclaras mucho,bien y conciso ,siendo de mucha ayuda. GRACIAS!
Grande Carlos!
Eres el mejor dot.❤️
Hola. Me encanta el contenido, que bueno tener divulgadores como tú. Oye ¿Podrías hablar de los avances de AI en que trabaja AMD? Sería genial ver también esa competencia entre gráficas, a partir de los avances de la AI.
Como mucho intenta ir sacando unos años despues lo que innovó nvidia, realmente nvidia si una cosa sabe hacer bien, es el I +D. Solo hace falta ver las GTC de nvidia vs las de AMD, este ultimo solo hace marketing que se junta con ciertas empresas. Con nvidia flipas con esas gtc. Te invito haberla. Riete de el monopolio de windows o tsmc 😂
@@Lu-dm9eehay mercado de sobra y AMD sigue creciendo y mejorando. No al nivel de nvidia pero no descartes nada, y menos cuando las gpu se volvieron incomparables
@@Lu-dm9ee NVidia empezó mucho antes a invertir en IA, lleva una ventaja enorme. AMD se ven obligados a seguir los pasos de NVidia. La mayoría de software está optimizado para Cuda, que es propiedad de NVidia, por lo que AMD tiene que desarrollar su propio hardware y software y además conseguir que las apps empiecen a usarlos.
Básicamente, el que llega primero se sirve dos veces.
ROCM en Linux y HIP SDK en Windows hacen la mayoría de programas acelerados por CUDA compatibles con AMD, han avanzado bastante, aunque aún van detrás de Nvidia. Pero por ejemplo Raja Koduri (Ex ATI (antes de la compra de AMD), Apple, AMD e Intel, líder en GPU en la mayoría de empresas que ha trabajado), dice que para su startup de AI va a usar más AMD e Intel ya que le dan más Flops por dólar y si usas código tipo pytorch que es agnóstico de GPU pues es mejor calidad-precio.
@@camiller1988 supongo que quisiste decir incomprables. Claro, porque no tiene competencia... La unica opcion, es que AMD, Intel, apple, Microsoft, amazon, tesla, etc... Se unieran a diseñar y fabricar chips y ecosistemas de IA juntos. No puede ser que solo se este comprando hardware de nvidia.
compre acciones de nvidia hace años solo por la fricada de que em gustaban las graficas :)) siiuuuu!!!! ni recordaba que las tenia gracias
19:16 o el santo grial del desarrollo Gaming: de forma sencilla darles a bots multiplayer y a enemigos dentro del juego, estrategias muy similares a jugadores humanos, para mejorar la experiencia del usuario final.
Y digo de forma sencilla, porque el entrenamiento de las IAs en Gaming es un proceso que requiere un desarrollo complejo y aveces desde 0 para los desarrolladores. Imagine que pronto se les pueda dar como info de entrenamiento, gameplays de usuarios reales o cierta meta data asociada nada más, y que a partir de esta; los enemigos y/o bots fueran más "inteligentes" en sus estrategias y ataques... Imaginen esto en Elden Ring, por ejemplo.
Yo voy a presentar un póster en el GTC. Nos vemos ;-)
Cómo este canal no tiene 10millones?
La edición es la mejor
Impresionante. Yo que conocí el Intel 4004, no puedo por menos que alucinar. Magnífico vídeo.
Muy ilustrativo este video. Gracias. Ahora leo un artículo de Xataca y me ha quedado claro, el título dice: "El superordenador más potente de NVIDIA está listo. Tiene 4.608 GPU H100 y es una bestia para IA generativa"
Me encantan tus videos, que manera tan interesante de enseñar. Seguiré viendo los demás
Es excelente lo que haces, muchas gracias por publicarlo ❤
Extraordinario video muy bien informado y didáctico Felicidades! Edgar Bedoya Lima Perú
Yo también soy peruano hola Edgar, estás en algun proyecto de IA ???
Realmente impresionante todo lo que se viene!!! 👏👏👏 Cada vez soy más IA Lover 🤖❤
Llegué a 200k hoy. Estoy realmente agradecido por todo el conocimiento y las pepitas que me han brindado durante los últimos meses. Comenzó con 14k en junio de 2023
Cómo lo hiciste por favor? Soy un novato en la inversión en criptomonedas. ¿Puedes orientarme cómo lo hiciste?
Invertir es mejor con un trader experto que conoce bien dónde y cómo invertir
Isia Gomez viene muy recomendada
Esto es algo que he querido hacer y me he topado con este nombre en diferentes ocasiones pero sinceramente no sé como contactarla.
ella a menudo interactúa en
Telegrams, usando el usuario a continuación
Sin estar muy interesado en estos temas, me llamó más la atención como lo presentas, la narración y imagenes hicieron muy buen match. Gran video.
Interesante reflexión sobre cómo las GPUs de NVIDIA se convirtieron en el pilar del Deep Learning. Sin duda, están liderando el camino hacia la próxima era de la IA. ¡Gracias por el video!
tremendo canal!! me da lastima haberla encontrado tan tarde
Como siempre gran video.... existe algún diplomado que tu estés dando?
Que me encanta este tipo de videos 😊. Grande Carlos 🤗
de la serie 40 cual es la tarjeta con la cual se puede experimentar mejoras si vengo de la rtx3060
Por favor, te suplico, habla de la tecnología de IA de Palantir 😩
Gran video !
Increíble vídeo
no en encontre mejor video que este, gracias por actualizarme!!!
Simplemente alucinante. Gracias por la explicación y exposición del tema que para mi ha sido excelente
consulta, si al final de la cadena es la gpu del consumidor procesa el juego, por ejemplo, en caso de ser agresiva, estaríamos todos viendo un juego un pelín distinto? ¿debido a que las IA no generar dos veces la misma cosa o no? :s help
Piensa que ahora mismo la IA en videojuegos ya es bastante agresiva. Estamos hablando de que con DLSS puedes renderizar un juego en 1080p y escalarlo a 4k. Eso significa que la tarjeta gráfica solo está rasterizando un 25% de los pixeles que se muestran en pantalla. Si a eso le sumas el DLSS 3.0 que duplica los FPS reduciría otro 50% el rasterizado. Por lo que actualmente con esas tecnologías activas solo estaría rasterizando el 12,5% de los pixeles en pantalla. A mí me parece bastante agresiva la IA.
@@AdrianMelguizo el pregunta por otra cosa pero manzanas traes
Con razon los de la sección de wall stree en reddit estaban como locos
pedazo de video. lo que mas me gusto, la información. y la producción 🤯
Excelente información. Muy útil y bien desarrollada, además de la gráfica que es espectacular
La metáfora inicial del ajedrez es muy acertada, teniendo en cuenta que sobre el tablero Stockfish siempre gana...
Acabe de encontrar este canal y es una joya.
Tremendo Bro, gracias por tanta info y explicada de una forma tan buena, me saco el sombrero 🦸
ojo la pausa al final, hace que caiga la conciencia en el momento silencioso, el vacio genera una respuesta en espera al oyente. y estas son likes comment etc.
y esta muy bien que las noticias las dejes al final y cualquier publicidad. Ni yo habia caido en cuenta de esto y si lo hiciste por enfatizar, pues te felicito haz descubierto algo
Excelente producción!!
Excelente !! Deberías hacer un video comparando los Apple silicon con las gráficas de Nvidia.
Excelente video 👍
Llevo soñando con los NNPCs desde hace años y en realidad están muy cerca. Si juntasemos todo lo que hay sobre la mesa ya serían posibles en un juego.
Me resulta curioso como se viene un enorme tsunami encima que va a transformar totalmente el mundo e incluso la gente que ve este canal solo se preocupa por los juegos.
@_Elian No te equivoques, la revolucion que supone la IA ha sido acelerada por el hecho que existieran GPUs pero dichas GPU de aceleracion grafica habrian existido igualmente para acelerar software que tambien las necesita, como 3Dstudio, autocad, o blender. Además las GPU de uso domestico hace MUCHO que no tienen nada que ver con las que se usan en grandes granjas de servidores de computacion de IA. ¿Acaso tienes una H100 en tu casa para jugar al call of duty? Resumiendo, no sabes lo que dices, la IA existiria exactamente igual sin videojuegos.
@_ElianNo, el mayor y autentico desarrollo de las GPU aun no ha llegado ni probablemente llegue nunca al que las usa para juegos. La potencia de calculo en paralelo que tiene una H100 (y la cantidad de Vram) esta varios ordenes de magnitud por encima de cualquier tarjeta grafica domestica. Es otro nivel de desarrollo completamente diferente exclusivamente impulsado por el fenomeno IA, totalmente independiente desde su inicio del desarrollo de GPUs para uso domestico.
@_ElianEstamos entrando en bucle, ya te he dicho que las primeras GPU habrian existido exactamente igual aun sin videojuegos lo cual invalida el argumento de tu ultimo mensaje pero vuelves a repetirlo. Por aclarar un poco mas las librerias CUDA tambien habrian existido exactamente igual dado que existiendo las GPU habia varios usos cientificos para esa capacidad de proceso en paralelo. En particular las operaciones con matrices son muy utiles para muchos calculos matematicos implicados en muchas disciplinas de investigacion cientifica, no solo la IA. Nvidia supo ver eso y por ello desarrollaron CUDA, insisto, N O fue por los videojuegos.
@_ElianEstas dandole la vuelta a lo mismo y repitiendo con otras palabras argumentos que ya te he rebatido. Yo por mi parte veo absurdo seguir insistiendo con alguien que claramente no razona. Si necesitas tener razon tienes mi completa bendicion para ir por el mundo pensando que el desarrollo de la IA ha sido gracias a los videojuegos, ve en paz.
Muchas gracias por este contenido.