Exacto! La capacidad de recordar interacciones pasadas marca la diferencia entre un modelo de lenguaje más o menos avanzado y verdadero asistente personal. No es lo mismo utilizar un LLM para consultas puntuales que un sistema capaz de resolver problemas cotidianos sin tener que partir de cero en cada interacción. Avances como estos deberían hacer que el uso de la IA se masifique. Lo que no se ha explicado es si los datos que se guarden para realizar el perfil de cada usuario serán o no transparentes, modificables o borrables para nosotros los usuarios o sólo para las compañías.
Yo creo que es un avance importante para mejorar el desempeño de las aplicaciones de IA, pero no resuelve todas las limitaciones que tienen. Gracias por el vídeo. Como siempre, muy bueno.
Por mi parte, sin APIs, utilizo, para un proyecto, dos instancias a la vez. Y los artefactos. La instancia principal, es sobre la cual corres, la secundaria es la que destila el histórico del primero y lo indiza. Con un juego de frases pre-prompt y el archivo que va generando la segunda instancia y los artefactos. La primera instancia continua el hilo, por ejemplo, si no estas usando NotebookLM y quieres procesar un .pdf de 150 hojas en Gemini. Le pides que genere un índice de la pagina 1 a la 15; otro de la pagina 10 a la 25; otro de las página 20 a las 35 y así sucesivamente hasta comompletar el primer destilado del documento de 150 páginas. Luego le pides que sobre los 15 bloques establezca vinculos entre ellos en un indice de almenos 1 a 3. Gracias al solapamiento, tendrás un destilado que funcionará com FAT, que, gracias a las referencias acompaña al documento original. Con ello comienzas piendo que tome como documento guía el destilado y lo constraste con el .pdf Haces los mismo con respuesta correctas como si fuese un .pdf. Asi, al principio de cada prompt debes solitar que analice nuevamente los dos sets de archvivos y que demuestre el resultado de su análisis. Luego en el mismo primpt colocas el contexto historico y el nuevo contexto más,el objetivo del prompt. Asi avanzas y puedes ir borrando los archivos viejos históricos. Es un poco largo pero cuando necesitas, si o si utilizar 1000.000 de tokens "vivos en memoria" funciona bien. (Ya que a partir de la cuenta de 400.000 toquens en una conversacion lineal, se pierde totalmen. Y es fratrante porque venías construyendo en proyecto robusto e inexpungnable, que se olvide lo que venimos trabajando cuando intuimos que estamos 100.000 o 50.000 tokens del delivery final.
Se necesitan Centros de Memoria así como construyen Centros de Datos con GPUs y esa memoria no puede estar lejos de las GPUs o se perderá un montón de energía. Se volvieron locos a dirigir dinero a entrenar modelos y a todos se les olvidó darle memoria a las IAs. Se necesitan todo tipo de memorias, ópticas, magnéticas y de memristores ferroeléctricos y semiconductores.
Lo que yo me pregunto es: ¿Porque las IAs tienen que pensar como nosotros? ¿No sería mejor enfocarlas en problemas que para nosotros son más abstractos? Tenemos IAs haciendo arte y conversando y a gente trabajando en trabajos monótonos o de una logística sencilla (cosas que sin duda haría infinitamente mejor una IA)
Buena pregunta. La respuesta podría ser: por ahora, no hay nada comparable a las capacidades humanas en general, nadie es capaz de construir un ordenador con 60 % de agua y que funciona con azúcar y dar esas prestaciones humanas... Además, trabajan para nosotros y debemos entenderlas, si no piensan como nosotros, que somos lo máximo en razón,... ¿entonces qué... que modelo tomar? ¿simios...? No hay otro camino que escrutar nuestra propia interioridad. Ese es el filón. Y ya existen súper ordenadores trabajando en tareas muy complicadas, clima, estrellas, etc. Saludos.
Excelente trabajo, talvez no llegue a muchas personas y veo que el canal lleva ya tiempo subiendo videos, talvez los primeros años fue coña pero, me gustaria personalmente que este de canales llegue a mas gente. Y eso curioso porque el contenido que tienes, es similar a verisatium y el enfoque "Divulgar", ahora el punto es que esta pequeña comunidad necesita crecer y si lo pienso talvez sea un modelo de negocio x, pero insisto que el contenido puede llegar a mas personas y hoy en dia conozco "genios" (Ejm. Personas que ponen la ideologia antes que la ciencia y los hechos (Como la biologia) ), que son muy virales, y estan malogrando un ecosistema del saber. Debido a ello, tengo la tendencia personal de apoyar y comentar activamente en estos canales que nutren este espacio. Complementado lo interesante esta en el futuro, porque tambien aliento a las personas a comentar, pensar y constructivamente mejorar, porque con una sola vista o un momento muchas cosas pueden cambiar (puedes decirle teoria de juegos "hoy por ti mañana por mi" o los mas degraciados "Endulzar tus palabras, por si luego tienes que tragartelas"). Volviendo al tema original eso es todo, tu contenido esta brutal y es curioso que no haya una dependencia de la edicion, sino mas bien de tus habilidad para comunicar y utilizar las herramientas (edicion y otras supongo) moderadamente.
Sobre el papel tiene muy buena pinta, pero hablamos de Google, que a la hora de implementar cosas de IA parece que sigue los pasos de primero pegarse un tiro en el pie, luego un tiro en la pierna y ya, luego, sacar algo que medianamente se puede usar.
pues lo mas facil es que tenga un almacenamiento local en tu dispositivo para que pueda usarlo y crear contexto. aunque tiene la desventaja que hay que llevar parte de esa memoria al servidor para continuar charlas anteriores y no se pierda el hilo
Es cierto de que por ahí olvidan de qué estábamos hablando o algunas cosa que uno ya dijo, pero han mejorado mucho últimamente. Bueno, yo últimamente uso solo Perplexity, y veo que ha mejorado.
Ah es lo mismo de siempre, Google presentando algo, pero que es sólo una presentación, capaz alguna empresa toma ese supuesto estudio y lo aplica recién de acá a 1 año. Google viene retrasando el avance de la IA hace décadas, intentando exprimir al máximo su modelo de negocio basado en la búsqueda.
Es que no le veo el punto. Es una noticia que se va a evaporar tal y como vino. Se ha exagerado muchísimo. Échale un vistazo al vídeo de DotCSV, ahí lo aclara todo o tienes un Podcast de 20 minutos que he grabado para los Patreons
Exagerado, puede ser, pero no lo comparto del todo. La idea de que los avances en IA sean “exagerados” podría tener algo de cierto, aunque mi perspectiva es distinta. Entiendo el escepticismo de muchos: las APIs inestables, la desconfianza frente al espionaje -a menudo utilizada como excusa geopolítica para restar méritos, como en el caso de China vs. EE.UU.- y la fatiga de debates teóricos sin acción concreta. Sin embargo, el verdadero cambio no está en discutir quién lidera, sino en cómo se integran las herramientas disponibles. Mi enfoque práctico lo demuestra: al combinar modelos destilados (por ejemplo, R1-Llama-70B sobre hardware Groq) con técnicas de optimización, he logrado replicar -e incluso superar- capacidades que antes parecían exclusivas de sistemas cerrados. Esto no es mera especulación: es un game changer técnico, especialmente cuando se prioriza la eficiencia sobre la propaganda. Respecto al “espionaje como excusa”, el trasfondo es claro: cuando un país (o empresa) pierde ventaja, recurre a narrativas de descrédito. China, con proyectos como DeepSeek, demuestra que el código abierto y la escalabilidad pueden romper monopolios. En lugar de debates estériles, deberíamos enfocarnos en construir, no en competir por titulares. Claves de lo que funciona hoy: Modelos destilados + hardware especializado (Groq, por ejemplo): reducen costos y aumentan velocidad. Ética práctica, no retórica: si una API falla (“está muerta”), se reemplaza; si hay riesgos de privacidad, se diseñan capas de seguridad desde la base del código. Colaboración abierta > secretismo: el código abierto acelera innovaciones reales, como se verá en mi próximo proyecto. En cuanto a “Project Titans”, si realmente poseyera las características descritas, revolucionaría por completo el modo en que entendemos y construimos IA, rompiendo la barrera de la memoria limitada y apostando por un razonamiento transparente y modificable. Sería el vórtice en el que convergerían HPC, razonamiento simbólico, deep learning masivo y el espíritu del open source, con todo el potencial -y los riesgos- que ello conlleva: Ingesta de datos multimodal, queries y razonamiento (DeepSeek optimizado), aprendizaje continuo, colaboración abierta… DeepSeek ya demostró hasta dónde puede llegar este enfoque, y aunque muchos prefieran no profundizar en él, es innegable que ha provocado un cambio radical. Actualmente, Alibaba con Qwen 2.5 también suma aportes a este escenario. Si yo desarrollara un proyecto personal de gran envergadura, vería el potencial abismal de DeepSeek y sus modelos open source: definitivamente es un game changer. Claro está que debería contar con “Fairness Layers” o medidas análogas, pero lo cierto es que estos modelos han transformado completamente mi flujo de trabajo. Igualmente, muy buen video. Un saludo. Hoy en día contamos con las herramientas necesarias para crear algo realmente increíble -una especie de “AGI”-, pero muchos solo prestan atención a los modelos, sin profundizar en el flujo, en los agentes ni en la forma de darles vida. En definitiva, no me sorprendería que, en unos meses, ni ‘Project Titans’ ni ‘DeepSeek’ conquisten todas las portadas, pero sí que sus ideas inspiren frameworks reales en HPC o laboratorios académicos que, paso a paso, resuelvan la limitación de la memoria. Y esa, a largo plazo, sería la contribución real.”* eepSeek podría no ser “pura exageración”, sino un enfoque complementario o incluso una base real Dentro de un mes, revelaré un sistema que sintetiza estas ideas: una arquitectura modular que combina lo mejor de DeepSeek, técnicas de destilación y gestión de memoria persistente. No es AGI, pero sí un paso sólido hacia sistemas autónomos que resuelven problemas en lugar de limitarse a hablar. mayormente soy mas tecnico, a pesar de todo me gusto tu podcast
La termodinámica limita la eficiencia con la que usamos la energía y lo rápido que podemos disipar el calor. La electrónica y la física del estado sólido limitan lo rápido y pequeño que podemos hacer los chips. 😢 Calor y tamaño son los principales cuellos de botella. Y luego no puedo replicar lo que son sistema de emociones
Como siempre las empresas estadounidenses son las que inventan la tecnologia. luego llega un ingeniero chino enviado por xiyin pin. Jakea el codigo, le da copiar y pegar y.... bun🎉 nueva inteligencia china 😂😂😂😂😂
Ni te creas....recuerda que los sajones son expertos en propaganda....y todo lo patentizan para hacerse dueños hasta de las canciones anónimas...y cobrar royaltis ...un ejemplo.. toda la arquitectura de Google está construida sobre Linux..
@tonimaya Linux tambien es de EEUU.... Ademas si vamos a hablar de propaganda y no general sino a nivel masivo. Hechale un vistazo a china. Y la inmensa cantidad de noticias y articulos de todo tipo de supuestos inventos chinos que nunca terminan en nada mas que en un articulo de prensa. EEUU al contrario, generalmente lo que publica lo demuestra con inventos de verdad que cambian el mundo. Precisamente en este momento estas escribiendo desde un dispositivo que fue inventado en estados unidos sin importar la marca de tu celular. El Invento es estadounidense hecho por un ingeniero de motorol llamado martin cooper en 1973. Parte de eso me estás hablando dentro de una plataforma llamada youtube que también es un invento estadounidense. Y si tienes algúna lampara encendida tu habitación para iluminar el lugar donde te encuentras. Recuerda que es gracias a Estados Unidos que también inventó el bombillo.. Entonces de qué propaganda me hablas? Mantente al tanto del portal de noticias y mira cuántos artículos salen a diario sobre supuestos inventos e innovaciones chinas que luego nunca más se vuelve a hablar.
Mejor memoria que yo seguro tendran las IA. Soy A.A.C.C però mas dispero que un político justificando un derroche. Hoy si llego para mimar al algoritmo.
esa voz femenina intrusiva me está taladrando un nervio, porque cada vez que salta y es tan diferente de tu voz que mi cerebro lo asocia dice youtube voz intrusiva diferente al narrador es pinche publicidad y tengo el reflejo involuntario de darle clic a omitir siendo que este no está porque no es publicidad es una voz rara intrusiva en tu video. intrusivaintrusivaintrusiva
Esto si que es un paso a tener un asistente virtual real! Gracias por el contenido!
Exacto! La capacidad de recordar interacciones pasadas marca la diferencia entre un modelo de lenguaje más o menos avanzado y verdadero asistente personal. No es lo mismo utilizar un LLM para consultas puntuales que un sistema capaz de resolver problemas cotidianos sin tener que partir de cero en cada interacción. Avances como estos deberían hacer que el uso de la IA se masifique. Lo que no se ha explicado es si los datos que se guarden para realizar el perfil de cada usuario serán o no transparentes, modificables o borrables para nosotros los usuarios o sólo para las compañías.
Yo creo que es un avance importante para mejorar el desempeño de las aplicaciones de IA, pero no resuelve todas las limitaciones que tienen. Gracias por el vídeo. Como siempre, muy bueno.
Por mi parte, sin APIs, utilizo, para un proyecto, dos instancias a la vez. Y los artefactos. La instancia principal, es sobre la cual corres, la secundaria es la que destila el histórico del primero y lo indiza. Con un juego de frases pre-prompt y el archivo que va generando la segunda instancia y los artefactos. La primera instancia continua el hilo, por ejemplo, si no estas usando NotebookLM y quieres procesar un .pdf de 150 hojas en Gemini. Le pides que genere un índice de la pagina 1 a la 15; otro de la pagina 10 a la 25; otro de las página 20 a las 35 y así sucesivamente hasta comompletar el primer destilado del documento de 150 páginas. Luego le pides que sobre los 15 bloques establezca vinculos entre ellos en un indice de almenos 1 a 3. Gracias al solapamiento, tendrás un destilado que funcionará com FAT, que, gracias a las referencias acompaña al documento original.
Con ello comienzas piendo que tome como documento guía el destilado y lo constraste con el .pdf
Haces los mismo con respuesta correctas como si fuese un .pdf. Asi, al principio de cada prompt debes solitar que analice nuevamente los dos sets de archvivos y que demuestre el resultado de su análisis. Luego en el mismo primpt colocas el contexto historico y el nuevo contexto más,el objetivo del prompt.
Asi avanzas y puedes ir borrando los archivos viejos históricos.
Es un poco largo pero cuando necesitas, si o si utilizar 1000.000 de tokens "vivos en memoria" funciona bien. (Ya que a partir de la cuenta de 400.000 toquens en una conversacion lineal, se pierde totalmen. Y es fratrante porque venías construyendo en proyecto robusto e inexpungnable, que se olvide lo que venimos trabajando cuando intuimos que estamos 100.000 o 50.000 tokens del delivery final.
Se necesitan Centros de Memoria así como construyen Centros de Datos con GPUs y esa memoria no puede estar lejos de las GPUs o se perderá un montón de energía.
Se volvieron locos a dirigir dinero a entrenar modelos y a todos se les olvidó darle memoria a las IAs. Se necesitan todo tipo de memorias, ópticas, magnéticas y de memristores ferroeléctricos y semiconductores.
Lo que yo me pregunto es: ¿Porque las IAs tienen que pensar como nosotros? ¿No sería mejor enfocarlas en problemas que para nosotros son más abstractos?
Tenemos IAs haciendo arte y conversando y a gente trabajando en trabajos monótonos o de una logística sencilla (cosas que sin duda haría infinitamente mejor una IA)
Buena pregunta. La respuesta podría ser: por ahora, no hay nada comparable a las capacidades humanas en general, nadie es capaz de construir un ordenador con 60 % de agua y que funciona con azúcar y dar esas prestaciones humanas... Además, trabajan para nosotros y debemos entenderlas, si no piensan como nosotros, que somos lo máximo en razón,... ¿entonces qué... que modelo tomar? ¿simios...? No hay otro camino que escrutar nuestra propia interioridad. Ese es el filón. Y ya existen súper ordenadores trabajando en tareas muy complicadas, clima, estrellas, etc. Saludos.
👏👏👏👍👍👍
Excelente trabajo, talvez no llegue a muchas personas y veo que el canal lleva ya tiempo subiendo videos, talvez los primeros años fue coña pero, me gustaria personalmente que este de canales llegue a mas gente. Y eso curioso porque el contenido que tienes, es similar a verisatium y el enfoque "Divulgar", ahora el punto es que esta pequeña comunidad necesita crecer y si lo pienso talvez sea un modelo de negocio x, pero insisto que el contenido puede llegar a mas personas y hoy en dia conozco "genios" (Ejm. Personas que ponen la ideologia antes que la ciencia y los hechos (Como la biologia) ), que son muy virales, y estan malogrando un ecosistema del saber. Debido a ello, tengo la tendencia personal de apoyar y comentar activamente en estos canales que nutren este espacio. Complementado lo interesante esta en el futuro, porque tambien aliento a las personas a comentar, pensar y constructivamente mejorar, porque con una sola vista o un momento muchas cosas pueden cambiar (puedes decirle teoria de juegos "hoy por ti mañana por mi" o los mas degraciados "Endulzar tus palabras, por si luego tienes que tragartelas"). Volviendo al tema original eso es todo, tu contenido esta brutal y es curioso que no haya una dependencia de la edicion, sino mas bien de tus habilidad para comunicar y utilizar las herramientas (edicion y otras supongo) moderadamente.
Sobre el papel tiene muy buena pinta, pero hablamos de Google, que a la hora de implementar cosas de IA parece que sigue los pasos de primero pegarse un tiro en el pie, luego un tiro en la pierna y ya, luego, sacar algo que medianamente se puede usar.
pues lo mas facil es que tenga un almacenamiento local en tu dispositivo para que pueda usarlo y crear contexto. aunque tiene la desventaja que hay que llevar parte de esa memoria al servidor para continuar charlas anteriores y no se pierda el hilo
No es viable, el servidor tendría que acceder a esa información y por conectividad la IA se cuelga y las resìetas pueden durar minutos en llegar.
Es cierto de que por ahí olvidan de qué estábamos hablando o algunas cosa que uno ya dijo, pero han mejorado mucho últimamente. Bueno, yo últimamente uso solo Perplexity, y veo que ha mejorado.
Buen video "vivedios" !!!! 😉
Gracias saludos
Me gustan los vídeos del canal son muy interesantes
Pd que bueno que sacaron esa música que daba un poco de cringe
Lo interesante sería que el modelo base pudiese corregirse si el usuario es capaz de hacerlo, para beneficio de todos.
deberia poder gestionarse en local
Gracias por el video y la explicación.
Muy interesante y muy clara la explicación, gran contenido Oli, muchas gracias!!
Gracias ON
Ah es lo mismo de siempre, Google presentando algo, pero que es sólo una presentación, capaz alguna empresa toma ese supuesto estudio y lo aplica recién de acá a 1 año. Google viene retrasando el avance de la IA hace décadas, intentando exprimir al máximo su modelo de negocio basado en la búsqueda.
🤘
Enorme Oli
no vas a hablar de deepseek?
Es que no le veo el punto. Es una noticia que se va a evaporar tal y como vino. Se ha exagerado muchísimo. Échale un vistazo al vídeo de DotCSV, ahí lo aclara todo o tienes un Podcast de 20 minutos que he grabado para los Patreons
Exagerado, puede ser, pero no lo comparto del todo. La idea de que los avances en IA sean “exagerados” podría tener algo de cierto, aunque mi perspectiva es distinta. Entiendo el escepticismo de muchos: las APIs inestables, la desconfianza frente al espionaje -a menudo utilizada como excusa geopolítica para restar méritos, como en el caso de China vs. EE.UU.- y la fatiga de debates teóricos sin acción concreta. Sin embargo, el verdadero cambio no está en discutir quién lidera, sino en cómo se integran las herramientas disponibles.
Mi enfoque práctico lo demuestra: al combinar modelos destilados (por ejemplo, R1-Llama-70B sobre hardware Groq) con técnicas de optimización, he logrado replicar -e incluso superar- capacidades que antes parecían exclusivas de sistemas cerrados. Esto no es mera especulación: es un game changer técnico, especialmente cuando se prioriza la eficiencia sobre la propaganda.
Respecto al “espionaje como excusa”, el trasfondo es claro: cuando un país (o empresa) pierde ventaja, recurre a narrativas de descrédito. China, con proyectos como DeepSeek, demuestra que el código abierto y la escalabilidad pueden romper monopolios. En lugar de debates estériles, deberíamos enfocarnos en construir, no en competir por titulares.
Claves de lo que funciona hoy:
Modelos destilados + hardware especializado (Groq, por ejemplo): reducen costos y aumentan velocidad.
Ética práctica, no retórica: si una API falla (“está muerta”), se reemplaza; si hay riesgos de privacidad, se diseñan capas de seguridad desde la base del código.
Colaboración abierta > secretismo: el código abierto acelera innovaciones reales, como se verá en mi próximo proyecto.
En cuanto a “Project Titans”, si realmente poseyera las características descritas, revolucionaría por completo el modo en que entendemos y construimos IA, rompiendo la barrera de la memoria limitada y apostando por un razonamiento transparente y modificable. Sería el vórtice en el que convergerían HPC, razonamiento simbólico, deep learning masivo y el espíritu del open source, con todo el potencial -y los riesgos- que ello conlleva: Ingesta de datos multimodal, queries y razonamiento (DeepSeek optimizado), aprendizaje continuo, colaboración abierta… DeepSeek ya demostró hasta dónde puede llegar este enfoque, y aunque muchos prefieran no profundizar en él, es innegable que ha provocado un cambio radical. Actualmente, Alibaba con Qwen 2.5 también suma aportes a este escenario.
Si yo desarrollara un proyecto personal de gran envergadura, vería el potencial abismal de DeepSeek y sus modelos open source: definitivamente es un game changer. Claro está que debería contar con “Fairness Layers” o medidas análogas, pero lo cierto es que estos modelos han transformado completamente mi flujo de trabajo.
Igualmente, muy buen video. Un saludo.
Hoy en día contamos con las herramientas necesarias para crear algo realmente increíble -una especie de “AGI”-, pero muchos solo prestan atención a los modelos, sin profundizar en el flujo, en los agentes ni en la forma de darles vida.
En definitiva, no me sorprendería que, en unos meses, ni ‘Project Titans’ ni ‘DeepSeek’ conquisten todas las portadas, pero sí que sus ideas inspiren frameworks reales en HPC o laboratorios académicos que, paso a paso, resuelvan la limitación de la memoria. Y esa, a largo plazo, sería la contribución real.”*
eepSeek podría no ser “pura exageración”, sino un enfoque complementario o incluso una base real
Dentro de un mes, revelaré un sistema que sintetiza estas ideas: una arquitectura modular que combina lo mejor de DeepSeek, técnicas de destilación y gestión de memoria persistente. No es AGI, pero sí un paso sólido hacia sistemas autónomos que resuelven problemas en lugar de limitarse a hablar.
mayormente soy mas tecnico, a pesar de todo me gusto tu podcast
🇧🇷
La termodinámica limita la eficiencia con la que usamos la energía y lo rápido que podemos disipar el calor. La electrónica y la física del estado sólido limitan lo rápido y pequeño que podemos hacer los chips.
😢 Calor y tamaño son los principales cuellos de botella. Y luego no puedo replicar lo que son sistema de emociones
Como siempre las empresas estadounidenses son las que inventan la tecnologia. luego llega un ingeniero chino enviado por xiyin pin. Jakea el codigo, le da copiar y pegar y.... bun🎉 nueva inteligencia china 😂😂😂😂😂
Las empresas estadounidenses están llenas de asiáticos, por no decir que son la gran mayorñia.
Ni te creas....recuerda que los sajones son expertos en propaganda....y todo lo patentizan para hacerse dueños hasta de las canciones anónimas...y cobrar royaltis ...un ejemplo.. toda la arquitectura de Google está construida sobre Linux..
@tonimaya
Linux tambien es de EEUU....
Ademas si vamos a hablar de propaganda y no general sino a nivel masivo. Hechale un vistazo a china. Y la inmensa cantidad de noticias y articulos de todo tipo de supuestos inventos chinos que nunca terminan en nada mas que en un articulo de prensa.
EEUU al contrario, generalmente lo que publica lo demuestra con inventos de verdad que cambian el mundo. Precisamente en este momento estas escribiendo desde un dispositivo que fue inventado en estados unidos sin importar la marca de tu celular. El
Invento es estadounidense hecho por un ingeniero de motorol llamado martin cooper en 1973.
Parte de eso me estás hablando dentro de una plataforma llamada youtube que también es un invento estadounidense.
Y si tienes algúna lampara encendida tu habitación para iluminar el lugar donde te encuentras. Recuerda que es gracias a Estados Unidos que también inventó el bombillo..
Entonces de qué propaganda me hablas?
Mantente al tanto del portal de noticias y mira cuántos artículos salen a diario sobre supuestos inventos e innovaciones chinas que luego nunca más se vuelve a hablar.
😍
Mejor memoria que yo seguro tendran las IA. Soy A.A.C.C però mas dispero que un político justificando un derroche.
Hoy si llego para mimar al algoritmo.
esa voz femenina intrusiva me está taladrando un nervio, porque cada vez que salta y es tan diferente de tu voz que mi cerebro lo asocia dice youtube voz intrusiva diferente al narrador es pinche publicidad y tengo el reflejo involuntario de darle clic a omitir siendo que este no está porque no es publicidad es una voz rara intrusiva en tu video. intrusivaintrusivaintrusiva
Parece un video patrocinado por google xDD
parece que se va a tener que crear hardware especializado!!!