El "hombre-pez" no se calentó la cabeza esta vez con las interrupciones de los ruidos de afuera y los metió como "bloopers" usándolos a su favor. Se agradece la cuota de honestidad con las reacciones. 😆
Realmente hace un tiempo que se lo está tomando mejor, hace años se tilteaba muchísimo y a fin de años había una recopilación de enojos... Si bien extraño las recopilaciones me parece mejor que no se altere como antes XD
No sé cómo explicar lo mucho que necesitaba que subieran videos así explicando a detalle (dejando tarea para la casa) y sentando las bases para otros videos. Fuuaaa dale bicampeón
Minuto 11:15 la risa de Flan es todo lo que está bien (no me olvido de Ares, pero es menos frecuente oír la risa de flan en circunstancias inesperadas). 👌😁 Muy buen video programa como Nico. Se notó en particular el esfuerzo que pusiste para que toda la información técnica que has recibido y manejado en ese evento de AMD sea clara para que los seres mortales del mundo de la tecnología podamos entender de qué va el tema. 😀👍 (Edit.) Podrían hacer un After en algún momento hablando de este tema? Ya sé que no te dan los tiempos Nico, pero sería genial un podcast como los que acostumbraban el año pasado. Gracias desde ya. 😊👍
las NPU son mas baratas que una GPU en términos de energía, esa eficiencia va bien en laptops, pero un LLM es muy complicado ejecutarlo sin problemas, las majores NPU andan por el rendimiento de una 3060, yo tengo un mini lab en casa y aun con eso me quedo corto y veo un poco complicado sacar provecho de una NPU, lo único bueno es la privacidad
Las gráficas de nvidia son prácticamente ya npus, tenes un youtuber (tortilla) que le echan mucho hate por que idolatra la marca por eso mismo, el futuro es hoy oíste viejo hshshs , lo que hubiera sido si nvidia compraba arm mamita.
Las NPU no son para jugar, las APU tampoco. Están pensados para cálculos básicos sin necesidad de una GPU, principalmente dirigidos a publicistas, marketing, etc. Para el diseño de modelos base. Y su objetivo real es competir con los procesadores de larga vida útil de Apple (que odio la mac pero he de reconocer la duración de su batería) y la necesidad de estar conectado a internet para tareas de producción menor.
@@kukuleleTheFinalsno es solo a pollo. Yo he visto a la mayoría de los que tiran hate a pollo pero en general critican a cualquiera que no les recomiende una PC hecha básicamente como por 300 dólares. Osea que requieres un determinado presupuesto para poder realizar X cosa. O X habilidad para X solución. Es muy común en informática contra gente que maneja estadísticas, no que pone gráficas, si no que comprende como se extraen esos valores. Y eso es porque es "complejo" y muchas veces crea grupos marginales, a nadie le gusta ser marginado, muchos incluso corren de consola para no decir que son "consoleros". No porque quieran y necesitan el PC. Además, repito "es complejo" mucha gente no es capaz de comprender información compleja, aún entre profesionales. Le pasa a Freddy, Thor, warren buffet, spartangeek, un profesor de Oregon que seguía, etc. Dicho diferente la gente no le gusta que les digas que pertenecen o no pertenecen a cierto estereotipo, aunque lo hagan. Por tanto buscarán fervientemente a quienes les digan lo contrario, porque entonces ya no son marginados, sin un colectivo. Y mucha gente está más que dispuesta a llevar esa contraria por fama fácil. En Linux es súper común. Si me dices a un tipo de Linux que no puede hacer algo por ser conveniente. De mi experiencia lo va hacer, te va decir que ganó y si falla 1 día o 2 después por ser inestable. No importa, porque en su mente el ya ganó.
La NPU es neural proces unid la cual está encargada de hacer el trabajo de la red neuronal usada para la IA pero a su vez esta mandando ordenes a la GPU para que se agilicen los cálculos ya que la misma al tener un gran número de procesadores pequeños y dedicados a hacer cálculos es muchísimo más rápida y mejor
@@Leosalvaje_ pues es inevitable que dejen a la GPU por el hecho de que esta especializada a hacer millones de cálculos de manera bruta, por algo se invento y se utiliza, no se puede dejar a la GPU solo para gráficos sino que hasta con más cosas se utiliza
Que buenos estos videos donde nico nos baja a tierra conceptos complicados, también me encanta la emoción que le da hablar con los devs de los procesadores :D
No sé porque me suena a marketing todo el tema IA. La diferencia entre una CPU y la GPU es que esta última está conformada por n cantidad de cores pequeños que procesan en paralelo los gráficos, y de esa manera logran un mayor rendimiento. Surgen porque dada la complejidad de los entornos gráficos termina siendo demasiado trabajo para una CPU. Pero, desde el punto de vista estrictamente físico, si yo tomo un core de GPU y lo comparo con un core de CPU, no hay mayor diferencia, más o menos cantidad de transistores y nada más. Si retrocedemos en el tiempo, encontramos a los procesadores como el 80286 y el surgimiento del coprocesador matemático, que era el procesador encargado de resolver las operaciones de punto flotante. Un concepto mucho más simple, pero que considero análogo a lo que vemos en la actualidad. O sea, desde mi punto de vista las NPU son marketing, porque la CPU es la encargada de hacer todas las taras del SO, la GPU, con su arquitectura paralelizada de procesadores, agilizar todo el procesamiento de imágenes, ¿y la cuál es su manera de procesar? ¿paralelamente, secuencialmente, una combinación de ambos?, ¿porque soportan palabras más largas? ¿acaso ya no es soportada esa tecnología en la actualidad? Si el software actual no soporta esa supuesta nueva arquitectura, ¿cómo establecen que realmente se ganan algo?
12:58 Yo creo que llegaron al límite de la física, no creo que los disminuyan más a los tamaños. El tamaño de los materiales te cambian las propiedades físicas y quizás en este caso sea desfavorable
Recordar que 7nm no es real, hace tiempo que la industria de semiconductores utiliza esos números como simple denominación de un proceso y no como antes definiendo el tamaño de los gates de transistores. El tamaño actual está en torno a los 40-60nm, que de todos modos es extraordinario
@@indiocolifa ah, no sabía ese dato. Lo que tampoco sé muy bien es hasta que tamaño (ancho) los conductores o semiconductores conservan su comportamiento macroscópico. Pero bueno, ahora se ve que están enfocados a otra cosa
@@3a8otengo entendido que cerca del tamaño estimado del átomo de silicio (cercano a 1nm) podría haber problemas de túnel cuántico donde los electrones pasarían por el gate del transistor aún cuando este estuviese “cerrado”. Pero toco de oído en física .
Hace par de meses hice un tuit hablando de algo similiar, siento que en unos años no va a haber mas gpu sino npu y Nvidia ya lleva una ventaja gigante con todo el hardware, tecnologías y patentes relacionadas a generar imágenes basados en deep learning. Amd la tiene complicada para las proximas 2 gen de consolas (hablando solo del periodo de tiempo que duran)
Las GPU de NVIDIA tienen su “NPU” los tensor cores. Si tienes un pc normal con gpu rtx no te preocupes en cambiar a un procesador con NPU. Las 2060 y las 3060 tienen 100 TOPS en 8bits el doble de todo lo que mostró.
NIco, me queda la siguiente duda porque yo hace un tiempo estoy corriendo LLMs de manera local y estaba esperando que amd lanzara la serie 9000 con AI tambien y veo que solo es para portatiles, podrás explicarte por que no hacen foco tambien en las pc de sobremesa o es porque quizas con una buena gpu externa no tendría tanto sentido?. Saludos
@@emiva9896 Me atrevo a decir que el 70 por ciento de la audiencia de Supra, no puede hacerse con la mayoría de los productos a los que les hace revisión. Y viendo los números ahora, si estaban de fiesta jajajaja
Nadie fuera de los programadores de IA quiere microchupes con inteligencia artificial, para eso están las GPUs de Nvidia. A menos que haya alguna utilidad que sea uti con la IA de las NPUs o las NPUs superen a una 4090 las cosas no van a cambiar.
Siento que NPU va termina aprovechando mejor para nas Ejemplo crear metadato como hace Apple y rastreo gente en cámara seguridad Ante usamos gpu o coral Google para nas
recomiendas comprar un ryzen 5 7600 o esperar a ver con que precio sale el ryzen 5 9600x aca en argentina y ver de comprar ese. ya que quiero armar una pc y uno de mis enfoque a futuro es la IA
Tengo una pregunta sobre letyshops, porque ya vengo haciendo varias compras y el cashback es irrisorio, algo de 20usd me reembolsan 70 pesos, y lo peor es que el minimo para retirar soon 1000 pesos, cosa que JAMAS voy a llegar. Hay alguna forma de que me reintegren la plata en dolares en vez de pesos? :c
quiere decir que en un futuro veremos torres de pc con: GPU, CPU y aparte una NPU? osea vamos a necesitar torres mas grandes para refrigerar todo eso jasjjas
El problema del avance de la tecnología, es que el ritmo del avance lo da el marketing y el cómo sacarle más plata a los "consumidores". El 98% de los usuarios pueden funcionar bien en sus respectivos trabajos con un equipo del 2015. Sin embargo, la presión brutal de obsolesencia por hardware y software a los consumidores es increíble y los miles de toneladas de "chatarra" digital que se generan a nivel mundial son una contaminación realmente brutal. Pero hoy el marketing vende que hoy se consume menos energía, que el procesamiento demora tantos nanosegundos..... Por otro lado, hoy el nivel de consumo del hardware es cada vez mayor. Al final se debiera lograr más con menos; pero eso atenta contra el negocio. La idea es hacer más con más y que los equipos sean cada vez más desechables (basura digital a tope) para así hacer más corto el ciclo de renovación. En una rápida jornada de reciclaje en dos meses recogí 20 notebooks en desuso, pude arreglar 15 de ellos, les instale Linux y hoy son equipos funcionales para muchas personas.
Literalmente en este video explico que las NPUs rinden más que las GPUs para estas tareas específicas y son más eficientes 🤷♂️ Si hoy se usa una GPU es porque el código está armado para eso porque es más veloz que un CPU.
Por ahora si importa el dia que el npu este integrado al propio procesador por ahora es innecesario en la mayoria de cpus no cuentan con los TOP necesarios para un uso digamos parecidos al de una tarjeta grafica
La verdad no entiendo para que sirve la IA para la gente común, si no trabajas en una oficina con excel o Word, no le veo sentido. Para los estudiantes tal vez les sirva los primeros 2 años, luego ya no se pedirá mas trabajo prácticos ni imvestigar si lo va a hacer todo la IA. Chat gpt4 lo use oara ver lo que era y le pregunté bo lu deces y fue eso para mi una bo lu dez.
Qué hará Nvidia para no perder mercado? Intel/AMD no se van a quedar afuera. Al final el que logre la mejor relación rendimiento/precio ganará imagino.
no sera xq ya no tienen el asernal para seguir creando procesadores potentes x ejemplo ya isieron muchas reducciones en los transitores y todos los componentes que lleva un procesador dentro??
Si la base de GPUs ya está desplegada hasta en computadoras no recientes y de gama alta, ¿cuál la necesidad de la NPU? ¿Las GPUs no pueden llegar a ser lo suficientemente avanzadas con sus cálculos?
A casi nadie que conoce de tecnología le importa la IA o los TOPs salvo a los fabricantes, a pesar del bombo que le están dando hace años. No agrega nada para los usuarios. Una burbuja más, que nos hacen pagar a quienes no nos interesa. Sería bueno empezar a boicotear los productos que le pongan foco a estas porquerías. Sarah y John Connor lo van a agradecer en el futuro, abajo Skynet
La IA será el futuro, eso es concreto, el problema radica en que las empresas nos quieren meter a la fuerza la IA actualmente como si ya estuviera terminada y 100% funcional, lo cual no es cierto.
Unmm no lo se rick. Ya podemos resolver problemas de redes complejos asistidos por AI concretamente en redes definidas pro software Cisco ACI. Lo que tomaba horas, ahora minuto. Sospecho estas equivocado. No me lo han contado, es parte de mi trabajo.
@@Iaparatodos- Solo puedo imaginar lo fiable que puede llegar a ser una solución de un problema complejo resuelto por IA 🤣 Aunque perdón, no quiero quemarte si ganás dinero con eso, a menos que sea demasiado evidente el fraude. Acabo de mirar por encima de qué consiste Cisco ACI y resulta un compendio generado del IT bullshit generator, hermoso. Cisco debe haber mejorado dos algoritmos em sus switches Nexus, los oscurecieron, patentaron, y ahora le llaman IA, clásico de Cisco
El "hombre-pez" no se calentó la cabeza esta vez con las interrupciones de los ruidos de afuera y los metió como "bloopers" usándolos a su favor. Se agradece la cuota de honestidad con las reacciones. 😆
no se si tendre un audio de mierda pero nunca escucho los ruidos.
@@klzghtus auriculares no tienen frecuencias medias xd
Realmente hace un tiempo que se lo está tomando mejor, hace años se tilteaba muchísimo y a fin de años había una recopilación de enojos... Si bien extraño las recopilaciones me parece mejor que no se altere como antes XD
vi las barras negras en la miniatura y me ilusioné con un after😢
El que es bicampeón de América sube video a la hora que quiere
Si amigo ya entendimos, mas allá de una copa, importa?
@@brutalknife3928 Cálmate men, es solo un chiste.
Robando penaltis cualquiera
@@brutalknife3928Si, y mucho. Abrazo
@@walterJsabioque penaltis? XD
No sé cómo explicar lo mucho que necesitaba que subieran videos así explicando a detalle (dejando tarea para la casa) y sentando las bases para otros videos. Fuuaaa dale bicampeón
Dale campeón, dale campeón
Los ruidos de fondo son una locura jajajajja
Como hace falta After para escuchar más su opinión sobre AI y su uso cotidiano. Ojalá vuelva pronto, saludos desde Honduras 🇭🇳
Minuto 11:15 la risa de Flan es todo lo que está bien (no me olvido de Ares, pero es menos frecuente oír la risa de flan en circunstancias inesperadas). 👌😁
Muy buen video programa como Nico. Se notó en particular el esfuerzo que pusiste para que toda la información técnica que has recibido y manejado en ese evento de AMD sea clara para que los seres mortales del mundo de la tecnología podamos entender de qué va el tema. 😀👍
(Edit.) Podrían hacer un After en algún momento hablando de este tema? Ya sé que no te dan los tiempos Nico, pero sería genial un podcast como los que acostumbraban el año pasado. Gracias desde ya. 😊👍
Ese colectivo tiene los mismos frenos desde 1920 aparentemente
Oye, oye, oye. Despacio cerebrito...
😂😂😂😂
Suscriptor normal : wow ! debe ser bueno
Suscriptor avanzado : wow ! Se viene lo bueno
las NPU son mas baratas que una GPU en términos de energía, esa eficiencia va bien en laptops, pero un LLM es muy complicado ejecutarlo sin problemas, las majores NPU andan por el rendimiento de una 3060, yo tengo un mini lab en casa y aun con eso me quedo corto y veo un poco complicado sacar provecho de una NPU, lo único bueno es la privacidad
Las gráficas de nvidia son prácticamente ya npus, tenes un youtuber (tortilla) que le echan mucho hate por que idolatra la marca por eso mismo, el futuro es hoy oíste viejo hshshs , lo que hubiera sido si nvidia compraba arm mamita.
Las NPU no son para jugar, las APU tampoco.
Están pensados para cálculos básicos sin necesidad de una GPU, principalmente dirigidos a publicistas, marketing, etc.
Para el diseño de modelos base.
Y su objetivo real es competir con los procesadores de larga vida útil de Apple (que odio la mac pero he de reconocer la duración de su batería) y la necesidad de estar conectado a internet para tareas de producción menor.
@@kukuleleTheFinalsno es solo a pollo.
Yo he visto a la mayoría de los que tiran hate a pollo pero en general critican a cualquiera que no les recomiende una PC hecha básicamente como por 300 dólares.
Osea que requieres un determinado presupuesto para poder realizar X cosa. O X habilidad para X solución.
Es muy común en informática contra gente que maneja estadísticas, no que pone gráficas, si no que comprende como se extraen esos valores.
Y eso es porque es "complejo" y muchas veces crea grupos marginales, a nadie le gusta ser marginado, muchos incluso corren de consola para no decir que son "consoleros". No porque quieran y necesitan el PC. Además, repito "es complejo" mucha gente no es capaz de comprender información compleja, aún entre profesionales.
Le pasa a Freddy, Thor, warren buffet, spartangeek, un profesor de Oregon que seguía, etc.
Dicho diferente la gente no le gusta que les digas que pertenecen o no pertenecen a cierto estereotipo, aunque lo hagan.
Por tanto buscarán fervientemente a quienes les digan lo contrario, porque entonces ya no son marginados, sin un colectivo.
Y mucha gente está más que dispuesta a llevar esa contraria por fama fácil.
En Linux es súper común.
Si me dices a un tipo de Linux que no puede hacer algo por ser conveniente.
De mi experiencia lo va hacer, te va decir que ganó y si falla 1 día o 2 después por ser inestable.
No importa, porque en su mente el ya ganó.
5:43 para lo mejor del video
La NPU es neural proces unid la cual está encargada de hacer el trabajo de la red neuronal usada para la IA pero a su vez esta mandando ordenes a la GPU para que se agilicen los cálculos ya que la misma al tener un gran número de procesadores pequeños y dedicados a hacer cálculos es muchísimo más rápida y mejor
Lo cual la vuelve inutil a menos que logren de una buena vez que todos los calculos lo haga la NPU y dejen la GPU en paz. Dejenla en paz!
@@Leosalvaje_ pues es inevitable que dejen a la GPU por el hecho de que esta especializada a hacer millones de cálculos de manera bruta, por algo se invento y se utiliza, no se puede dejar a la GPU solo para gráficos sino que hasta con más cosas se utiliza
Gracias por la información y análisis.
Gracias por ser argentino 💙🤍
Nicolas, porfavor un curso de producción audio visual, me encanta la mejoria que han implementado con el pasar de los años
Excelente video, muchas gracias al equipo de Supra, son unos genios ídolos 🎉
Que buenos estos videos donde nico nos baja a tierra conceptos complicados, también me encanta la emoción que le da hablar con los devs de los procesadores :D
Ay me encantó muchísimo amigo un saludo 🫂🫂🫂🎉
Bien ahí! 🇦🇷
No sé porque me suena a marketing todo el tema IA.
La diferencia entre una CPU y la GPU es que esta última está conformada por n cantidad de cores pequeños que procesan en paralelo los gráficos, y de esa manera logran un mayor rendimiento.
Surgen porque dada la complejidad de los entornos gráficos termina siendo demasiado trabajo para una CPU.
Pero, desde el punto de vista estrictamente físico, si yo tomo un core de GPU y lo comparo con un core de CPU, no hay mayor diferencia, más o menos cantidad de transistores y nada más.
Si retrocedemos en el tiempo, encontramos a los procesadores como el 80286 y el surgimiento del coprocesador matemático, que era el procesador encargado de resolver las operaciones de punto flotante. Un concepto mucho más simple, pero que considero análogo a lo que vemos en la actualidad.
O sea, desde mi punto de vista las NPU son marketing, porque la CPU es la encargada de hacer todas las taras del SO, la GPU, con su arquitectura paralelizada de procesadores, agilizar todo el procesamiento de imágenes, ¿y la cuál es su manera de procesar? ¿paralelamente, secuencialmente, una combinación de ambos?, ¿porque soportan palabras más largas? ¿acaso ya no es soportada esa tecnología en la actualidad?
Si el software actual no soporta esa supuesta nueva arquitectura, ¿cómo establecen que realmente se ganan algo?
Autolike porque es tecnologia y uno de los mejores canales argentinos de este rubro.
Acá tranqui viendo el video con mis 2 copas América seguidas y un habano
cada vez mas cerca de los anuncios en los sueños
Nico, sos groso. Muy buena información.
Yo no sé que veremos en unos años con respecto a tecnología pero si sé lo feliz que va a estar Nico cuando viva en su casa lejos de los bondis.
Siempre educando con calidad ❤
Gracias para la info! Saludos desde Bogotá
Que película Her.... lpm, predijo todo, todillo
Muy bueno!!! No sabía de la existencia de la NPU
Que buen video !!!! atrasado, pero ya lo vi !!!! La parte que sale Ares, es el punto alto del video jajaj !!!
Excelente video, re claro e informativo, más noticias de IA porfa!!!
Excelente vídeo Nico
Es cómo la sección de preguntas pero respondiendo solo una pregunta dedicada
Muy buen video!! Los que le ponen nombres a los procesadores deben ser los mismos que les ponen nombre a las nuevas estrellas y planetas!! 😂😂
Mamá, ya se lo que quiero para Navidad!!
Por mas vídeos así! Super interesante!
El unico argentino que me "banco" un día después de la final de la copa america.
Like si no entendiste nada pero lo disfrutaste igual jajaja
Xd
12:58 Yo creo que llegaron al límite de la física, no creo que los disminuyan más a los tamaños. El tamaño de los materiales te cambian las propiedades físicas y quizás en este caso sea desfavorable
Recordar que 7nm no es real, hace tiempo que la industria de semiconductores utiliza esos números como simple denominación de un proceso y no como antes definiendo el tamaño de los gates de transistores. El tamaño actual está en torno a los 40-60nm, que de todos modos es extraordinario
@@indiocolifa ah, no sabía ese dato. Lo que tampoco sé muy bien es hasta que tamaño (ancho) los conductores o semiconductores conservan su comportamiento macroscópico. Pero bueno, ahora se ve que están enfocados a otra cosa
@@3a8otengo entendido que cerca del tamaño estimado del átomo de silicio (cercano a 1nm) podría haber problemas de túnel cuántico donde los electrones pasarían por el gate del transistor aún cuando este estuviese “cerrado”. Pero toco de oído en física .
Le pregunté a chatgpt 😅 me dijo que 5nm es el tamaño de gate límite antes de efectos indeseados, siempre hablando de semiconductores en silicio.
después del nanómetro siguen los 55
picometros xd
Genial. Gracias por tu tarea de punta de flecha para informar a los que vamos más "despacito".
Hace par de meses hice un tuit hablando de algo similiar, siento que en unos años no va a haber mas gpu sino npu y Nvidia ya lleva una ventaja gigante con todo el hardware, tecnologías y patentes relacionadas a generar imágenes basados en deep learning. Amd la tiene complicada para las proximas 2 gen de consolas (hablando solo del periodo de tiempo que duran)
Hola Nico!
Buen día Nico
hola nico para cuando los bloopers lo pido muchisimo porfa!!!!! 🙂🙂😁😁😎😎🙏🙏👍👍
Nico! Compártenos el artículo de Tim Urban por favor
Saludos
Está en la descripción :)
@@SupraPixel Gracias Nico! 👍
para que yo quiero una NPU, eso es para los servidores en la nube, no creo que sirvan mucho para el usuario común si todas las IA funcionan en la nube
Supra necesito ayuda, que es mejor? Edge 40 neo o el Edge 50 fusion?
Las GPU de NVIDIA tienen su “NPU” los tensor cores. Si tienes un pc normal con gpu rtx no te preocupes en cambiar a un procesador con NPU. Las 2060 y las 3060 tienen 100 TOPS en 8bits el doble de todo lo que mostró.
NIco, me queda la siguiente duda porque yo hace un tiempo estoy corriendo LLMs de manera local y estaba esperando que amd lanzara la serie 9000 con AI tambien y veo que solo es para portatiles, podrás explicarte por que no hacen foco tambien en las pc de sobremesa o es porque quizas con una buena gpu externa no tendría tanto sentido?. Saludos
Consultamos sobre esto y desafortunadamente no obtuvimos una respuesta precisa.
Trece minutos y ni mil visitas, los argentinos siguen celebrando o están dormidos. Grande el Flan humano y el hombre Pez. Jajajaj
O será que no hay plata capo
@@emiva9896 Me atrevo a decir que el 70 por ciento de la audiencia de Supra, no puede hacerse con la mayoría de los productos a los que les hace revisión. Y viendo los números ahora, si estaban de fiesta jajajaja
Increíble que hay personas a día de hoy que menosprecian a AMD ...
Ahora se necesita un unboxing y review del z flip 6 y z fold 6
Extrañando After :C
Cuando usen NPU en Cycles, ahí recién me va a importar.
Creo que se puede reemplazar por completo a las GPU actuales con una NPU especializada.
Necesito ser mortal ayúdame ser mortal ayúdame
Skynet, its knocking at the doors...
11:14 Ese sí me sacó un pedo!!!! Qué carajos fue??!!
No aclaraste si va a servir para jugar Minecraft en 8K. Eso es mucho muy importante 🐭
hermoso ese soundtrack
Paso un Jet por argentina??? se nota que esto fue grabado cuando Taylor fue a hacer su concierto
Nadie fuera de los programadores de IA quiere microchupes con inteligencia artificial, para eso están las GPUs de Nvidia.
A menos que haya alguna utilidad que sea uti con la IA de las NPUs o las NPUs superen a una 4090 las cosas no van a cambiar.
Siento que NPU va termina aprovechando mejor para nas
Ejemplo crear metadato como hace Apple y rastreo gente en cámara seguridad
Ante usamos gpu o coral Google para nas
También podemos hacer quitar carga móvil o otro dispositivo para crear metadato solo haga un dispositivo
recomiendas comprar un ryzen 5 7600 o esperar a ver con que precio sale el ryzen 5 9600x aca en argentina y ver de comprar ese. ya que quiero armar una pc y uno de mis enfoque a futuro es la IA
una consulta, a cuantos Mhz trabaja Ares? Gracias.
Nico analiza los buds 3 pro
Buen guiño a Joaquin y Scarlett!
Como estudiante de Data e IA, ando esperando las CPU con NPU de escritorio
Igual tene en cuenta que el snapdragon... el tema esta en la eficiencia termica y energetica
Una vez que vez las manchas de grasa en el buzo, no hay vuelta atrás, me perdí medio video porque me desconcentró eso.
Tengo una pregunta sobre letyshops, porque ya vengo haciendo varias compras y el cashback es irrisorio, algo de 20usd me reembolsan 70 pesos, y lo peor es que el minimo para retirar soon 1000 pesos, cosa que JAMAS voy a llegar. Hay alguna forma de que me reintegren la plata en dolares en vez de pesos? :c
quiere decir que en un futuro veremos torres de pc con: GPU, CPU y aparte una NPU? osea vamos a necesitar torres mas grandes para refrigerar todo eso jasjjas
Dale campeonn
El problema del avance de la tecnología, es que el ritmo del avance lo da el marketing y el cómo sacarle más plata a los "consumidores". El 98% de los usuarios pueden funcionar bien en sus respectivos trabajos con un equipo del 2015. Sin embargo, la presión brutal de obsolesencia por hardware y software a los consumidores es increíble y los miles de toneladas de "chatarra" digital que se generan a nivel mundial son una contaminación realmente brutal. Pero hoy el marketing vende que hoy se consume menos energía, que el procesamiento demora tantos nanosegundos.....
Por otro lado, hoy el nivel de consumo del hardware es cada vez mayor. Al final se debiera lograr más con menos; pero eso atenta contra el negocio. La idea es hacer más con más y que los equipos sean cada vez más desechables (basura digital a tope) para así hacer más corto el ciclo de renovación.
En una rápida jornada de reciclaje en dos meses recogí 20 notebooks en desuso, pude arreglar 15 de ellos, les instale Linux y hoy son equipos funcionales para muchas personas.
Genial cumpa
El soundtrack de Her es la vida misma
Hay escasez de aceite para los bondis allá o que?
en si l a idea del procesador es obsoleta se estancó la evolución en computación. Primero existía el bulbo luego el transistor y después ? ..
jkakjakjakjakjajkajkajkajkaajkajkajakajkjkajkajkajkaaajkajkakj que risa! grande Nico!
😎
Si que importa el procesador, seamos claros, va siendo hora de hablar de cosas mas utiles que la IA, parece que todo gira en esto.
Mi Dios skynet pronto despertara
La humanidad avanza a pasos agigantados
Le hubieran puesto al vídeo: "El procesador nunca ha sido importante"
De nada.
Lo q yo intérprete es q ya no se puede mejorar el nodo de manera significativa, ademas q todo el mundo sabe q los nanometros son puro marketing
Rompen tanto los huevos con las NPU y una tarjeta gráfica le pasa el trapo y no andas necesitando realizar nuevas actualizaciones
Literalmente en este video explico que las NPUs rinden más que las GPUs para estas tareas específicas y son más eficientes 🤷♂️
Si hoy se usa una GPU es porque el código está armado para eso porque es más veloz que un CPU.
Por ahora si importa el dia que el npu este integrado al propio procesador por ahora es innecesario en la mayoria de cpus no cuentan con los TOP necesarios para un uso digamos parecidos al de una tarjeta grafica
Que no aprendieron nada de Terminator jajaj
Like si te diste cuenta que el dia que se grabo este video fue el desfile del 9 de julio o el dia de practicas de los jets
Como para qué año se calcula que nos vamos a unir a la resistencia contra las máquinas? jejeje
npu... así decía Edward Wong Hau Pepelu Tivruski IV
El audio esta ligeramente desfasado?
La verdad no entiendo para que sirve la IA para la gente común, si no trabajas en una oficina con excel o Word, no le veo sentido. Para los estudiantes tal vez les sirva los primeros 2 años, luego ya no se pedirá mas trabajo prácticos ni imvestigar si lo va a hacer todo la IA. Chat gpt4 lo use oara ver lo que era y le pregunté bo lu deces y fue eso para mi una bo lu dez.
Qué hará Nvidia para no perder mercado? Intel/AMD no se van a quedar afuera. Al final el que logre la mejor relación rendimiento/precio ganará imagino.
no sera xq ya no tienen el asernal para seguir creando procesadores potentes x ejemplo ya isieron muchas reducciones en los transitores y todos los componentes que lleva un procesador dentro??
grande Ares
Si la base de GPUs ya está desplegada hasta en computadoras no recientes y de gama alta, ¿cuál la necesidad de la NPU? ¿Las GPUs no pueden llegar a ser lo suficientemente avanzadas con sus cálculos?
En resumen: eficiencia energetica, las gpu son muchisimo mejores que las npu en cuanto a la ia pero las npu son muchisimo mas eficientes
Che el articulo de Tim Urban de IA es de hace casi 10 años, alta locura
Eso es lo más loco.
que onda, no van en las placas (de video para los no argentos) esos chips?
A casi nadie que conoce de tecnología le importa la IA o los TOPs salvo a los fabricantes, a pesar del bombo que le están dando hace años. No agrega nada para los usuarios. Una burbuja más, que nos hacen pagar a quienes no nos interesa. Sería bueno empezar a boicotear los productos que le pongan foco a estas porquerías. Sarah y John Connor lo van a agradecer en el futuro, abajo Skynet
La IA será el futuro, eso es concreto, el problema radica en que las empresas nos quieren meter a la fuerza la IA actualmente como si ya estuviera terminada y 100% funcional, lo cual no es cierto.
Unmm no lo se rick. Ya podemos resolver problemas de redes complejos asistidos por AI concretamente en redes definidas pro software Cisco ACI. Lo que tomaba horas, ahora minuto. Sospecho estas equivocado. No me lo han contado, es parte de mi trabajo.
@@Iaparatodos- Solo puedo imaginar lo fiable que puede llegar a ser una solución de un problema complejo resuelto por IA 🤣
Aunque perdón, no quiero quemarte si ganás dinero con eso, a menos que sea demasiado evidente el fraude.
Acabo de mirar por encima de qué consiste Cisco ACI y resulta un compendio generado del IT bullshit generator, hermoso. Cisco debe haber mejorado dos algoritmos em sus switches Nexus, los oscurecieron, patentaron, y ahora le llaman IA, clásico de Cisco
Sería bueno que te informes seriamente del tema. Empezá por los fundamentos de IA.
Mi micro tiene una NPU "Never prossesing unit"
😂es cuando dices, cuando termino mi casa insonorizada y lejos de la civilización.