Muchas gracias Carlos por todo el esfuerzo que dedicas a la divulgaciÃģn de la IA. Y muchas gracias por tu honestidad y humildad. Te hacen mÃĄs grande.
Carlos hace algo mÃĄs de 4 aÃąos decidà cambiar mi carrera profesional y meterme de lleno al mundo del BigData y la IA. Para mi has sido un referente durante todo este tiempo y sigues siendo una de las principales fuentes de informaciÃģn que utilizo para estar al dÃa en cada avance dentro del sector. Gracias por el tiempo que dedicas a probar todas estas tecnologÃas y por tu humildad y honestidad a la hora de reconocer cualquier error que puedas haber divulgado, sea o no tu culpa. Keep it up!
Concuerdo totalmente con este comentario, yo no cambiÃĐ de carrera pero en definitiva Carlos no me pierdo tus videos desde hace aÃąos por la calidad que metes, y es de sabios cambiar de opiniÃģn, para mà eres el mÃĄster en este tema
Yo hubiera hecho lo mismo Carlos. Te manda por privado la API y funciona, no te queda otra que confiar. AdemÃĄs, tambiÃĐn hubiera calmado los ÃĄnimos ante la toxicidad. Mucho ÃĄnimo y no te des mucho mal. Cuando te engaÃąan el responsable no es el engaÃąado sino el que engaÃąa. Fuerza y tampoco hace falta que cambies por algo extraordinario. Eres el mejor divulgador de habla hispana de IA y es una delicia aprender de ti. Un abrazo.
Carlos querido! Me encanta como explicas todo y esto no merece que pierdas tu tiempo, has hecho y sigues haciendo uno de los mejores contenidos que existen en TH-cam, sigue asi!! Te agradezco infinitamente por todo lo que haces por nosotros, la comunidad y todo es esfuerzo que le pones a todo! Un abrazo enorme ððĶð·
@@-jec-6334 si lo hace Netflix, es casi seguro que serÃĄ negro y de gÃĐnero fluido. Asà que Jason Statham no cumplirÃa completamente con el perfil. Tambien podrÃa ser interpretado por Dwayne Johnson o Whoopi Goldberg.
Gracias, Carlos por la rigurosidad; las explicaciones y la honestidad intelectual. Siempre atento a la actualidad, las noticias y su nivel de evidencia disponible. Lamentablemente la compleja realidad nos obliga a nunca bajar la guardia. Saludos y gracias de nuevo.
Muchas gracias Carlos por todo lo que dedicas a la divulgaciÃģn de la IA y muchas gracias por tu honestidad y la prontitud con que has respondido en esta situaciÃģn. ÂĄSigue adelante!
Estoy de acuerdo contigo. A veces pasarÃĄn estas cosas pero no es con malicia del interlocutor. Se avisa del error (involuntario) y a seguir para adelante ^^
Se agradece la honestidad, solo un tema que seguro ya lo has pensado, debes implementar y/o automatizar un setlist de pruebas amplio para tus evaluaciones
Pues lo tomaremos todos como un aprendizaje a futuro, gracias por tu trabajo, me impresiona el descaro de el creador de esto, como si no lo fueran a descubrir.. tal vez no hoy pero lo iban ÃĄ descubrir
Carlos no borres nunca este vÃdeo. Es una gran lecciÃģn para todos y mÃĄs que alguien como tÚ que sabe mucho, se pueda equivocar, para darnos a todos una elecciÃģn de humildad y ponernos en guardia.
Sorprendente a donde puede llegar. Gracias por la honestidad profesional y detalle del caso De todas formas ese video me aporto muchisimo valor. En mi afan por querer tener algo similar, configure chatGPT en su capa gratuita con un prompt para que haga algo similar, y la calidad de las respuestas mejoro considerablemente. El prompt aunque cutre y se puede mejorar es el siguiente: Realiza un anÃĄlisis detallado y tÃĐcnico para resolver la instrucciÃģn que se te proporciona, considerando aspectos especÃficos y haciendo recomendaciones generales cuando sea relevante. Muestra el proceso analÃtico completo que sigues para llegar a la soluciÃģn encerrado en etiquetas . Luego, genera una segunda respuesta, analizando el texto entre , y realiza una reflexiÃģn tÃĐcnica para mejorar la precisiÃģn y confiabilidad de la respuesta inicial.
Muchas gracias por el empeÃąo en la divulgaciÃģn bien hecha y la bÚsqueda de la verdad, si bien fue solo un system prompt, la experiencia y el aprendizaje queda. Saludos cordialidades.
Es verdad que el viernes estuvo toda la comunidad hablando de este tema, todos los divulgadores de IA trataron la noticia, es un asunto bastante raro. AÚn nos deben el vÃdeo sobre AlphaFold 3. Saludos desde Argentina.
Muchas gracias por compartir el video, pena que hayas borrado el primer video de la serie, me estaban dando ideas para prompting y fine tunning de los modelos open source en los que estoy trabajando.
Gracias Carlos por tu sinceridad y profesionalidad, tu comunidad te lo agradece. Por cierto, quÃĐ opinas del Master de IA de Big School con Jon HernÃĄndez y Romuald Fons?
Carlos, tu descargo y el hecho de poner la cara demuestra tu honestidad intelectual. No te das una idea de como me ayudan tus videos para poner al tanto de la AI a clientes y amigos que son "analfabetos tecnolÃģgicos" . Siempre sos muy claro y con un lenguaje llano y sencillo (lo que facilita mucho la vida) Sigue asi! Abrazo gigante desde Buenos Aires.
Hola Carlos, hay una cosa que comparto de lo que dijiste, hay una parte de la comunidad que es bastante toxica, a ver si los que estÃĄs arriba ponÃĐis orden en el asunto, porque a veces uno entra aquà a decir Buenas Tardes o hacer alguna broma de humor blanco y lo primero que te responden son insultos, y no paran xq ven que es barra libre.
Gran video, interesante historia. Al final cuando os dan acceso a una API imagino uno quiere creer que lo que esta viendo es cierto debido a la pasiÃģn que despierta. Gracias por la explicaciÃģn.
Cuando te informas a travÃĐs de redes sociales, buscas la inmediated y lo novedoso, por encima de lo estrictamente riguroso y estas cosas pueden pasar, yo asumo que puede pasar y lo prefiero, sobretodo en temas tan novedosos.
La mentira tiene patas cortas. A cualquiera le puede pasar que, al elegir creer en las innovaciones, peque de inocente. Gracias Carlos, por tu tiempo defendiendo a la comunidad. Es honorable que, cuando uno se equivoca, salga rÃĄpidamente a contar su historia. Te banco siempre por tu honestidad.
Gracias Carlos! Te la han colado a ti y a nosotros tambiÃĐn. Pero no te preocupes por tu reputaciÃģn. Con la aclaraciÃģn de este vÃdeo la dejas muy bien, porque es lo que racionalmente tocarÃa. Asà que gracias, gracias, gracias. Sin embargo, seguirÃa cauteloso a esperar mÃĄs. Podria ser que se la hayan colado tambiÃĐn a Mat. QuizÃĄs le hayan tendido una trampa con intereses de otro tipo. El tiempo lo dirÃĄ... Me cuesta creer que alguien asà se exponga gratuitamente. Es lo Único que para mà tiene sentido.
Cuando divulgas estÃĄs siempre expuesto a este tipo de cosas, lo importante es que luego nos actualices la informaciÃģn como has hecho ahora. ÂĄÃnimo!
Yo creo, que a medida sean mÃĄs accesiblle los diferentes modelos al publico masivo, y las personas obtengan conocimiento de usuario estas "confusiones" en conceptos (potenciado por el efecto Dunning-Kruger) comienza a entrar en la comunidad cientÃfica. Este caso me hace pensar que los autores erroneamente creyeron que el prompting es considerado fine-tuning. Todo lo anterior, bajo el principio de Hanlon.
Enhorabuena Carlos por afrontar de esta forma un error que, por otro lado, no parece tan obvio de detectar ni haciendo mÃĄs pruebas. A toro pasado todo parece evidente. Lo importante es ir aprendiendo a prevenir este tipo de engaÃąos. Tu aportaciÃģn a la comunidad es enorme y muchos te estamos muy agradecidos. Ãnimo y enhorabuena por tus canales!
Como culebrÃģn es una experiencia de alto valor. De todo debe haber en la huerta del seÃąor. Aquà se ha jugado con el hecho de que seguramente es posible que un fine tuning tenga un resultado espectacular. Muchas teorÃa apunta a eso y a donde se hace punterÃa se suele practicar tambiÃĐn la pu*eria. Sin la #.
Curiosamente, si usÃĄbamos un prompt del estilo "reflexiÃģn", en nuestro propio pensamiento [meta prompt?] Tal vez no la hubiese pasado.. Muchas gracias por el anÃĄlisis y la honestidad.
Carlos, 3 puntos, si me permites, 1- ni te disculpes, como bien sabes hemos entrado en una era donde el engaÃąo serÃĄ algo habitual y mÃĄs de uno caeremos en algÚn u otro engaÃąo , estas experiencias nos permiten mejorar, 2- seguramente serÃĄ una persona conocida en la comunidad y este punto carece de sentido ...pero es realmente Mst una persona fÃsica....podrÃĄ ser todo una cortina de humo..... 3- si hubiera tenido ÃĐxito a donde nos llevaba esta tÃĐcnica...a un proceso de razonamiento aplicable a cualquier modelo a muy bajo coste...crees que eso hubiera gustado a las grandes inversiones y futuras horneadas de modelos....? Muchos ÃĄnimos y no te sientas coartado por este incidente
En caso de que la mejora de hubiera implementado, no fue mÃĄs que una mejora en caracterÃsticas contingentes. Fue como darle las respuestas para que pasara las evaluaciones.
ahora q han salido los nuevos modelos de ClosedAI quiÃĐn nos dice q realmente son modelos y no un promp intermedio como en reflection 70b??? q enseÃąen el modelo o los modelos para poder comprobarlo
OpciÃģn c) ProbÃģ el prompt con claude como se ve ahÃ, presupuso que funcionarÃa igual de bien con llama, calculÃģ cÃģmo cambiarÃa la red neuronal con esos tokens, y dejÃģ que fuera la comunidad la que probara el Frankenstein. Sigue estando mal, pero no es tan atÃpico... Lo que no sÃĐ es si llama, como pasa con claude, tiene ese otro tipo de transformer que no se satura con la longitud... En cualquier caso, le ha regalado a antropic una futura buena siguiente versiÃģn. No hay mal que por bien no venga.
SÚper interesante. Aunque haya sido una trampa, el sistema para mejorar los resultados sigue siendo muy curioso. Siempre es interesante seguirte, incluso cuando pasan estas cosas. ÂĄUn saludo!
Esto es una cosa que sorprendentemente pasa mucho, sobretodo en el sector creativo y audiovisual. Yo dedicÃĄndome a los Vfx, he visto gente mostrando en su reel cosas en las que ni si quiera habÃa trabajado o si habÃa hecho algo era una cosa muy puntual como un cleanup o cualquier cosa similar. La verdad que es terrible todo esto
No te preocupes, a todos nos han estafado y hemos dado la cara por gente! Son cosas que pueden pasar! Si no hicieses NADA no tendrÃas riesgos pero estÃĄs siempre intentando darnos informaciÃģn fresca y en algÚn mometno se podÃa dar! Espero que no tengas consencuencias negativas porque no te lo mereces!
Los modelos actuales tienen todo el conocimiento pero una tecnica de prompt no harÃa que piense genuinamente. Debe haber algo mas que controle sus decisiones para que las respuestas sean mÃĄs exactas
Es que basta con decirle a cualquier modelo "razona tu respuesta" para que el modelo responda mejor y si te pones paranoico lo puedes poner en alerta y le dices "razona tu respuesta, Paso por Paso, NO alucines" Y responde de una manera mucho mÃĄs meditada.
QuizÃĄs lo correcto sea hacerlo dos veces; primero su respuesta genuina, y basado en eso, su respuesta Razonada. Asà serÃĄ mÃĄs fÃĄcil encontrar sus propios errores.@@azhuransmx126 AdemÃĄs, ÃĐste paso del Prompt deberÃa estar en el Background del modelo siendo escrita automÃĄticamente la primera respuesta de forma rÃĄpida y barata. Desde el PreTraining, ÃĐste deberÃa ser el procedimiento normal de Razonamiento, y no solo la IntuiciÃģn RobÃģtica
Fake It until you make It!! 24:37 Si bien no estÃĄ confirmado, desconfiar es lo mejor confirmando con pequeÃąos controles. ÂŋQue pensaba al publicarlo? Eso no me queda claro aun..
Ha sido todo muy extraÃąo; sin embargo, maravilloso. En primer lugar, Carlos ha demostrado que tanto ÃĐl como lo que estÃĄ ocurriendo en el mundo de la IA son muy reales. Hay mucho dinero involucrado y estÃĄn ocurriendo muchas cosas lÃģgicas en este contexto, lo cual tiene sentido. En cuanto al caso de Reflexion, como bien dice Carlos, en poco tiempo veremos quÃĐ ha sucedido, simplemente porque ya lo estamos viendo. Por otra parte, solo puedo felicitar a Carlos por demostrar que es una fuente fiable y autÃĐntica. Por Último, sugerir un tema: cÃģmo la geopolÃtica estÃĄ influyendo en el despliegue de los productos y funciones en la IA a travÃĐs de analizar estos intereses en el despliegue y las regulaciones.
Muchas gracias Carlos, yo tambien estuve contigo el sabado hasta las mil y monas. Y yo lo que veia era una persona desbordada por los acontecimientos, pero no veia a Matt como un estafador. OjalÃĄ sepamos su versiÃģn y no nos mienta. Veremos.
La forma de decir la verdad es adorable!! ððð "Una compaÃąÃa que empieza por Anth y termina en ropic" jajaja. Es muy raro! es como que un alumno haya hecho un examen oral de 10 y diga: "Profe, tengo que decir que mentà en el exÃĄmen" ðĩâðŦ
Esto es lo que tiene el sistema de APIs, lo hemos abrazado como algo milagroso pero al final del dia no es mas que acceder remotamente a un cÃģdigo que no es tuyo de ninguna manera.
Muchas gracias por mantenernos informados. Nadie es infalible y todos somos susceptibles de ser engaÃąados. Pero como ahora vas a doble chequear tu informaciÃģn, con mÃĐtodos que iras implementando con el tiempo, sÃĐ que ahora serÃĄs aÚn mÃĄs confiable que antes XDXDXD
ðĩâðŦðĩâðŦðĩâðŦðĪŊ Que locura.. Si.. Se va perdiendo fe en la humanidad. Bueno, gracias por compartir Yo sigo acÃĄ contigo Muy agradecida ðð
Es triste el silencio culposo de Matt. EmpecÃĐ a notar el mal rendimiento pero al igual que Carlos pensÃĐ que el problema era por una mala optimizaciÃģn del modelo. Los resultados que obtenÃa eran realmente malos comparados con otros modelos, y era mÃĄs extraÃąo que la salida del prompt obligara a mostrar la "reflexiÃģn" con esos tags lo cual ahora veo que coincide con un prompt previo de entrenamiento sobre otro modelo. Igual agradezco a Carlos por su sinceridad y rigurosidad, estos nos enseÃąa a tomar mÃĄs cautela y que nuestro amor por la IA nos traiciona jajaja
chatgpt o1-preview responde correctamente a la pregunta "Si ordenamos alfabeticamente los numeros del 1 al 100, cual seria el primero de la lista." sin tener que decirle nada mas: Thought for 18 seconds Para resolver este problema, necesitamos listar los nÚmeros del 1 al 100 en espaÃąol y ordenarlos alfabÃĐticamente. Al hacerlo, encontramos que los nÚmeros que comienzan con la letra "c" son: catorce (14) cien (100) cinco (5) cincuenta (50) cuarenta (40) cuatro (4) Al ordenar estos nÚmeros alfabÃĐticamente, "catorce" viene primero porque "ca" precede a "ci" y "cu" en el alfabeto. No hay nÚmeros del 1 al 100 que comiencen con letras anteriores a la "c" en espaÃąol. Por lo tanto, el primer nÚmero en la lista alfabÃĐtica del 1 al 100 en espaÃąol es "catorce" (14). Respuesta: catorce (14)
Uff que mal que haya sido falso, pero como dices, la idea es buena, y no veo descabellado que el propio facebook intenten aplicar esta tecnica dado que se ha tomado la molestia sobre entrenar sus modelos para que estos sean mas pequeÃąos y con mayor rendimiento.
Creo que empresas como meta o Google lo que hacen es precisamente generar confianza. No generar funciones con tan poco control o bases. Y deberÃamos enfocar mucho a lo que ellos estÃĄn haciendo
A eso me refiero... Los humanos son muy reactivos. Por ser un Bulo, no significa que sus argumentos lo sean. Los argumentos dicen que Mejora con un mejor Prompting, y genera una reflexiÃģn artificial para mejorar su respuesta una vez la puede ver por segunda vez. No entiendo por quÃĐ los humanos son tan poco capaces para separar parÃĄmetros. Reflection puede ser un Bulo, pero el argumento detrÃĄs es Probable.
Creo que ya llegamos a ese punto de la tecnologÃa donde los grandes avances YA NO van a provenir de un equipo pequeÃąo o de un llanero solitario que por el dÃa trabaja en una tecnolÃģgica y por la noche descubre avances tecnolÃģgicos de vanguardia, eso creo que ya no pasarÃĄ, por lo tanto cada que veamos a este tipo de genios desconocidos, desconfiemos.
Gracias @DotCSVLab Con un amigo nos aventuramos a trabajar con IA, queremos migrar para inundarnos en este mundo. donde nos recomendarÃas vivir? mountaint view, palo alto? gracias!
Creo que lo Único rescatable de aquà es el patrÃģn de diseÃąo. Reflection no serÃĄ un fine-tuned LLM, pero sà puede servir como prompt template jaja
Para mi lo impresionante no era que el modelo tuviera implementado de forma inherente este mecanismo de razonamiento, eso se logra con un buen data set y fine tuning, Lo impresionante y lo que me desmoraliza es que un modelo de 70B con esta tÃĐcnica superaba a uno de 405B, es una verdadera pena que sea mentira.
Carlos, simplemente que des la cara es increible, no creo que debas culparte por lo que ha pasado, como dices lo que han hecho no tendrÃa mucho sentido. Hiciste tus pruebas y todo parecÃa ir bien, yo nunca hubiera pensado que la estÃĄn liando.
Muchas gracias Carlos por todo el esfuerzo que dedicas a la divulgaciÃģn de la IA. Y muchas gracias por tu honestidad y humildad. Te hacen mÃĄs grande.
gracias Carlos CSV por tu honestidad, profesionalismo y eficiencia en la divulgaciÃģn.
Carlos hace algo mÃĄs de 4 aÃąos decidà cambiar mi carrera profesional y meterme de lleno al mundo del BigData y la IA. Para mi has sido un referente durante todo este tiempo y sigues siendo una de las principales fuentes de informaciÃģn que utilizo para estar al dÃa en cada avance dentro del sector. Gracias por el tiempo que dedicas a probar todas estas tecnologÃas y por tu humildad y honestidad a la hora de reconocer cualquier error que puedas haber divulgado, sea o no tu culpa. Keep it up!
Concuerdo totalmente con este comentario, yo no cambiÃĐ de carrera pero en definitiva Carlos no me pierdo tus videos desde hace aÃąos por la calidad que metes, y es de sabios cambiar de opiniÃģn, para mà eres el mÃĄster en este tema
Lamentable que cambies tu carrera por un youtuber, eres lamentable
Yo hubiera hecho lo mismo Carlos. Te manda por privado la API y funciona, no te queda otra que confiar. AdemÃĄs, tambiÃĐn hubiera calmado los ÃĄnimos ante la toxicidad.
Mucho ÃĄnimo y no te des mucho mal. Cuando te engaÃąan el responsable no es el engaÃąado sino el que engaÃąa.
Fuerza y tampoco hace falta que cambies por algo extraordinario. Eres el mejor divulgador de habla hispana de IA y es una delicia aprender de ti.
Un abrazo.
Carlos querido! Me encanta como explicas todo y esto no merece que pierdas tu tiempo, has hecho y sigues haciendo uno de los mejores contenidos que existen en TH-cam, sigue asi!! Te agradezco infinitamente por todo lo que haces por nosotros, la comunidad y todo es esfuerzo que le pones a todo! Un abrazo enorme ððĶð·
Que buena trama, quedarÃĐ en espera de la adaptaciÃģn de netflix. Con Carlos siendo interpretado por Will Smith.ðŋ
A mi me pega mas Jason Statham
@@-jec-6334 si lo hace Netflix, es casi seguro que serÃĄ negro y de gÃĐnero fluido. Asà que Jason Statham no cumplirÃa completamente con el perfil. Tambien podrÃa ser interpretado por Dwayne Johnson o Whoopi Goldberg.
nehh de seguro sera interpretado por Zendaya xD
@@maxantony2669 ðĪĢðĪĢðĪĢ no se me habrÃa ocurrido. Contratado inmediatamente como director de casting de Netflix.
Carlos no cambies tu calidad humana por nada. se te quiere
Gracias, Carlos por la rigurosidad; las explicaciones y la honestidad intelectual.
Siempre atento a la actualidad, las noticias y su nivel de evidencia disponible.
Lamentablemente la compleja realidad nos obliga a nunca bajar la guardia.
Saludos y gracias de nuevo.
Muchas gracias Carlos por todo lo que dedicas a la divulgaciÃģn de la IA y muchas gracias por tu honestidad y la prontitud con que has respondido en esta situaciÃģn. ÂĄSigue adelante!
Muchos preferimos que se divulgue rÃĄpido y luego se rectifique si hace falta, es mÃĄs entretenido
Estoy de acuerdo contigo. A veces pasarÃĄn estas cosas pero no es con malicia del interlocutor. Se avisa del error (involuntario) y a seguir para adelante ^^
Mi compa que no conoce la historia del lobo feroz.
Se agradece la honestidad, solo un tema que seguro ya lo has pensado, debes implementar y/o automatizar un setlist de pruebas amplio para tus evaluaciones
CuÃĄl honestidad? SÃ el hombre estaba apoyando a un mentiroso. ðĪĢðĪĢðĪĢ
Lo que queremos saber es que cara puso Sandra cuando te levantaste a las 2 de la maÃąana para probar el modelo
Sandra: ya estoy arta, elije yo o tus modelos de IA
Carlos: esta semana semana tienen nuevo vÃdeo de IA
@@jairgonzalaz ðĪĢðĪĢ
Pues lo tomaremos todos como un aprendizaje a futuro, gracias por tu trabajo, me impresiona el descaro de el creador de esto, como si no lo fueran a descubrir.. tal vez no hoy pero lo iban ÃĄ descubrir
Carlos no borres nunca este vÃdeo. Es una gran lecciÃģn para todos y mÃĄs que alguien como tÚ que sabe mucho, se pueda equivocar, para darnos a todos una elecciÃģn de humildad y ponernos en guardia.
Sorprendente a donde puede llegar. Gracias por la honestidad profesional y detalle del caso
De todas formas ese video me aporto muchisimo valor. En mi afan por querer tener algo similar, configure chatGPT en su capa gratuita con un prompt para que haga algo similar, y la calidad de las respuestas mejoro considerablemente.
El prompt aunque cutre y se puede mejorar es el siguiente:
Realiza un anÃĄlisis detallado y tÃĐcnico para resolver la instrucciÃģn que se te proporciona, considerando aspectos especÃficos y haciendo recomendaciones generales cuando sea relevante. Muestra el proceso analÃtico completo que sigues para llegar a la soluciÃģn encerrado en etiquetas . Luego, genera una segunda respuesta, analizando el texto entre , y realiza una reflexiÃģn tÃĐcnica para mejorar la precisiÃģn y confiabilidad de la respuesta inicial.
Super valorable este tipo de videos Carlos!!! Un canal espectacular para estar al tanto sobre AI
Un Saludo desde Buenos Aires. Muchas gracias por todo el trabajo que le dedicas a esto.
Gracias Carlos por tu video y por explicar la situaciÃģn..
Gracias por la comunicacion, eso nos ayuda a evitar caer en sesgos
Se valora la informaciÃģn. Gracias Carlos.
Muchas gracias por el empeÃąo en la divulgaciÃģn bien hecha y la bÚsqueda de la verdad, si bien fue solo un system prompt, la experiencia y el aprendizaje queda. Saludos cordialidades.
Tu sigue subiendo informaciÃģn, aunque no estÃĐ 100% confirmado, comÃĐntalo como una posible verdad o rumor
Gran experiencia.
Gracias por compartir!
Gracias Carlos, no por nada eres un ejemplo de como se divulga y de en quien confiar âĪ
Gracias por todo, Carlos. Eres mi referente en IA. Un abrazo.
Eres grande Carlos. Gracias por tus enseÃąanzas.
Me parece magnifica tu respuesta y explicaciÃģn. La esperada de alguien profesional que no quiere engaÃąar al personal.
Humilda ante errores. Gracias por compaitr.
Gracias CarlosâĶ y excelente reconocer el error se sacar un vÃdeo sin un peritaje mÃĄs exhaustivoâĶ vas a mejorar un montÃģn el canal
Es verdad que el viernes estuvo toda la comunidad hablando de este tema, todos los divulgadores de IA trataron la noticia, es un asunto bastante raro.
AÚn nos deben el vÃdeo sobre AlphaFold 3. Saludos desde Argentina.
Gracias Carlos tus suscriptores mÃĄs antiguos sabemos perfectamente el tipazo que eres ... Like y atento a los prÃģximos videos ...
Muchas gracias por compartir el video, pena que hayas borrado el primer video de la serie, me estaban dando ideas para prompting y fine tunning de los modelos open source en los que estoy trabajando.
Gracias Carlos por tu sinceridad y profesionalidad, tu comunidad te lo agradece. Por cierto, quÃĐ opinas del Master de IA de Big School con Jon HernÃĄndez y Romuald Fons?
Carlos, tu descargo y el hecho de poner la cara demuestra tu honestidad intelectual. No te das una idea de como me ayudan tus videos para poner al tanto de la AI a clientes y amigos que son "analfabetos tecnolÃģgicos" .
Siempre sos muy claro y con un lenguaje llano y sencillo (lo que facilita mucho la vida)
Sigue asi! Abrazo gigante desde Buenos Aires.
Hola Carlos, hay una cosa que comparto de lo que dijiste, hay una parte de la comunidad que es bastante toxica, a ver si los que estÃĄs arriba ponÃĐis orden en el asunto, porque a veces uno entra aquà a decir Buenas Tardes o hacer alguna broma de humor blanco y lo primero que te responden son insultos, y no paran xq ven que es barra libre.
Gracias por la informaciÃģn Carlos
Excelente vÃdeo y no te desanimes que sos un grande. Excelente canal.
Excelente explicaciÃģn Carlos!! gran trabajo!
Gran video, interesante historia. Al final cuando os dan acceso a una API imagino uno quiere creer que lo que esta viendo es cierto debido a la pasiÃģn que despierta. Gracias por la explicaciÃģn.
Cuando te informas a travÃĐs de redes sociales, buscas la inmediated y lo novedoso, por encima de lo estrictamente riguroso y estas cosas pueden pasar, yo asumo que puede pasar y lo prefiero, sobretodo en temas tan novedosos.
La mentira tiene patas cortas. A cualquiera le puede pasar que, al elegir creer en las innovaciones, peque de inocente. Gracias Carlos, por tu tiempo defendiendo a la comunidad. Es honorable que, cuando uno se equivoca, salga rÃĄpidamente a contar su historia. Te banco siempre por tu honestidad.
Muchos de nosotros hemos aprendido mucho de aquella situaciÃģn.
Grande Carlos, usted sabe reconocer sus errores y aclarar toda la situaciÃģn.
Gracias Carlos! Te la han colado a ti y a nosotros tambiÃĐn. Pero no te preocupes por tu reputaciÃģn. Con la aclaraciÃģn de este vÃdeo la dejas muy bien, porque es lo que racionalmente tocarÃa. Asà que gracias, gracias, gracias. Sin embargo, seguirÃa cauteloso a esperar mÃĄs. Podria ser que se la hayan colado tambiÃĐn a Mat. QuizÃĄs le hayan tendido una trampa con intereses de otro tipo. El tiempo lo dirÃĄ... Me cuesta creer que alguien asà se exponga gratuitamente. Es lo Único que para mà tiene sentido.
La tÃpica tÃĐcnica del doble ciego. Pero en este caso triple o cuÃĄdruple. QuiÃĐn sabe????
ð Muchas gracias.
El que mejor quedÃģ de esta telenovela fuÃĐ Anthropic xD
Cuando divulgas estÃĄs siempre expuesto a este tipo de cosas, lo importante es que luego nos actualices la informaciÃģn como has hecho ahora.
ÂĄÃnimo!
Yo creo, que a medida sean mÃĄs accesiblle los diferentes modelos al publico masivo, y las personas obtengan conocimiento de usuario estas "confusiones" en conceptos (potenciado por el efecto Dunning-Kruger) comienza a entrar en la comunidad cientÃfica. Este caso me hace pensar que los autores erroneamente creyeron que el prompting es considerado fine-tuning. Todo lo anterior, bajo el principio de Hanlon.
Enhorabuena Carlos por afrontar de esta forma un error que, por otro lado, no parece tan obvio de detectar ni haciendo mÃĄs pruebas. A toro pasado todo parece evidente. Lo importante es ir aprendiendo a prevenir este tipo de engaÃąos. Tu aportaciÃģn a la comunidad es enorme y muchos te estamos muy agradecidos. Ãnimo y enhorabuena por tus canales!
Carlitos, quedate tranquilo. Nadie desconfÃa de vos, todo lo contrario, trataste de ayudar a alguien que ni conoces. Gran gesto!
Aunque fuese una estafa yo me alegro que lo compartieras desde el primer dÃa y saber de la tÃĐcnica. Enhorabuena por todo el trabajo y esfuerzo
Como culebrÃģn es una experiencia de alto valor. De todo debe haber en la huerta del seÃąor. Aquà se ha jugado con el hecho de que seguramente es posible que un fine tuning tenga un resultado espectacular. Muchas teorÃa apunta a eso y a donde se hace punterÃa se suele practicar tambiÃĐn la pu*eria. Sin la #.
Curiosamente, si usÃĄbamos un prompt del estilo "reflexiÃģn", en nuestro propio pensamiento [meta prompt?] Tal vez no la hubiese pasado.. Muchas gracias por el anÃĄlisis y la honestidad.
Carlos, 3 puntos, si me permites, 1- ni te disculpes, como bien sabes hemos entrado en una era donde el engaÃąo serÃĄ algo habitual y mÃĄs de uno caeremos en algÚn u otro engaÃąo , estas experiencias nos permiten mejorar, 2- seguramente serÃĄ una persona conocida en la comunidad y este punto carece de sentido ...pero es realmente Mst una persona fÃsica....podrÃĄ ser todo una cortina de humo..... 3- si hubiera tenido ÃĐxito a donde nos llevaba esta tÃĐcnica...a un proceso de razonamiento aplicable a cualquier modelo a muy bajo coste...crees que eso hubiera gustado a las grandes inversiones y futuras horneadas de modelos....?
Muchos ÃĄnimos y no te sientas coartado por este incidente
En caso de que la mejora de hubiera implementado, no fue mÃĄs que una mejora en caracterÃsticas contingentes. Fue como darle las respuestas para que pasara las evaluaciones.
ahora q han salido los nuevos modelos de ClosedAI quiÃĐn nos dice q realmente son modelos y no un promp intermedio como en reflection 70b???
q enseÃąen el modelo o los modelos para poder comprobarlo
OpciÃģn c) ProbÃģ el prompt con claude como se ve ahÃ, presupuso que funcionarÃa igual de bien con llama, calculÃģ cÃģmo cambiarÃa la red neuronal con esos tokens, y dejÃģ que fuera la comunidad la que probara el Frankenstein.
Sigue estando mal, pero no es tan atÃpico... Lo que no sÃĐ es si llama, como pasa con claude, tiene ese otro tipo de transformer que no se satura con la longitud...
En cualquier caso, le ha regalado a antropic una futura buena siguiente versiÃģn. No hay mal que por bien no venga.
SÚper interesante.
Aunque haya sido una trampa, el sistema para mejorar los resultados sigue siendo muy curioso.
Siempre es interesante seguirte, incluso cuando pasan estas cosas.
ÂĄUn saludo!
Esto es una cosa que sorprendentemente pasa mucho, sobretodo en el sector creativo y audiovisual. Yo dedicÃĄndome a los Vfx, he visto gente mostrando en su reel cosas en las que ni si quiera habÃa trabajado o si habÃa hecho algo era una cosa muy puntual como un cleanup o cualquier cosa similar. La verdad que es terrible todo esto
Imaginate que esto te paso a vos, maximo referente esto (y te amo por ello!
Me encanta el chisme jajajaj
No te preocupes, a todos nos han estafado y hemos dado la cara por gente! Son cosas que pueden pasar! Si no hicieses NADA no tendrÃas riesgos pero estÃĄs siempre intentando darnos informaciÃģn fresca y en algÚn mometno se podÃa dar! Espero que no tengas consencuencias negativas porque no te lo mereces!
Los modelos actuales tienen todo el conocimiento pero una tecnica de prompt no harÃa que piense genuinamente. Debe haber algo mas que controle sus decisiones para que las respuestas sean mÃĄs exactas
Es que basta con decirle a cualquier modelo "razona tu respuesta" para que el modelo responda mejor y si te pones paranoico lo puedes poner en alerta y le dices "razona tu respuesta, Paso por Paso, NO alucines" Y responde de una manera mucho mÃĄs meditada.
QuizÃĄs lo correcto sea hacerlo dos veces; primero su respuesta genuina, y basado en eso, su respuesta Razonada. Asà serÃĄ mÃĄs fÃĄcil encontrar sus propios errores.@@azhuransmx126
AdemÃĄs, ÃĐste paso del Prompt deberÃa estar en el Background del modelo siendo escrita automÃĄticamente la primera respuesta de forma rÃĄpida y barata. Desde el PreTraining, ÃĐste deberÃa ser el procedimiento normal de Razonamiento, y no solo la IntuiciÃģn RobÃģtica
Fake It until you make It!! 24:37
Si bien no estÃĄ confirmado, desconfiar es lo mejor confirmando con pequeÃąos controles.
ÂŋQue pensaba al publicarlo? Eso no me queda claro aun..
Se erra se aprende y a seguir adelante
Carlos el mejor.
Nos quedamos con que ahora tenemos un mÃĄs poderoso "step by step".
Gracias!
Ha sido todo muy extraÃąo; sin embargo, maravilloso. En primer lugar, Carlos ha demostrado que tanto ÃĐl como lo que estÃĄ ocurriendo en el mundo de la IA son muy reales. Hay mucho dinero involucrado y estÃĄn ocurriendo muchas cosas lÃģgicas en este contexto, lo cual tiene sentido. En cuanto al caso de Reflexion, como bien dice Carlos, en poco tiempo veremos quÃĐ ha sucedido, simplemente porque ya lo estamos viendo. Por otra parte, solo puedo felicitar a Carlos por demostrar que es una fuente fiable y autÃĐntica. Por Último, sugerir un tema: cÃģmo la geopolÃtica estÃĄ influyendo en el despliegue de los productos y funciones en la IA a travÃĐs de analizar estos intereses en el despliegue y las regulaciones.
Yo sigo sin intender cuÃĄl era el objetivo de Matt haciendo todo esto. Gracias, Carlos, por estos vÃdeos, se agradece.
Se puede levantar capital con MUCHÃSIMO menos de lo que vimos aquÃ
Muchas gracias Carlos, yo tambien estuve contigo el sabado hasta las mil y monas. Y yo lo que veia era una persona desbordada por los acontecimientos, pero no veia a Matt como un estafador. OjalÃĄ sepamos su versiÃģn y no nos mienta. Veremos.
Excelente, estaba esperando este video... el resumen del culebrÃģn!!
Y si han entrenado llama con datos sinteticos de Claude y por eso pasa esto?
La forma de decir la verdad es adorable!! ððð "Una compaÃąÃa que empieza por Anth y termina en ropic" jajaja. Es muy raro! es como que un alumno haya hecho un examen oral de 10 y diga: "Profe, tengo que decir que mentà en el exÃĄmen" ðĩâðŦ
Bueno, sigue interesante planteo de tÃĐcnicas para boostear modelos con datos sintÃĐticos.
Gracias Carlos por la alcaraciÃģn. Habra que esperar un poquito mÃĄs a que los modelos piensen y razonen, pero todo llegara :P
Pues el prompt va genial, la neta igual se le subio la espuma a la cabeza. Pero ira, el prompt es la leche asi que pfffff. Gracias la verdad.
Esto es lo que tiene el sistema de APIs, lo hemos abrazado como algo milagroso pero al final del dia no es mas que acceder remotamente a un cÃģdigo que no es tuyo de ninguna manera.
Muchas gracias por mantenernos informados. Nadie es infalible y todos somos susceptibles de ser engaÃąados. Pero como ahora vas a doble chequear tu informaciÃģn, con mÃĐtodos que iras implementando con el tiempo, sÃĐ que ahora serÃĄs aÚn mÃĄs confiable que antes XDXDXD
ðĩâðŦðĩâðŦðĩâðŦðĪŊ
Que locura.. Si.. Se va perdiendo fe en la humanidad.
Bueno, gracias por compartir
Yo sigo acÃĄ contigo
Muy agradecida
ðð
Rola El Prompt, plisssss... Por cierto que hacemos con las antorchas y los trinches ahora?
Me encanta que el chisme es parte de todas las esferas de la interacciÃģn humana.
Es triste el silencio culposo de Matt. EmpecÃĐ a notar el mal rendimiento pero al igual que Carlos pensÃĐ que el problema era por una mala optimizaciÃģn del modelo. Los resultados que obtenÃa eran realmente malos comparados con otros modelos, y era mÃĄs extraÃąo que la salida del prompt obligara a mostrar la "reflexiÃģn" con esos tags lo cual ahora veo que coincide con un prompt previo de entrenamiento sobre otro modelo. Igual agradezco a Carlos por su sinceridad y rigurosidad, estos nos enseÃąa a tomar mÃĄs cautela y que nuestro amor por la IA nos traiciona jajaja
chatgpt o1-preview responde correctamente a la pregunta "Si ordenamos alfabeticamente los numeros del 1 al 100, cual seria el primero de la lista." sin tener que decirle nada mas:
Thought for 18 seconds
Para resolver este problema, necesitamos listar los nÚmeros del 1 al 100 en espaÃąol y ordenarlos alfabÃĐticamente. Al hacerlo, encontramos que los nÚmeros que comienzan con la letra "c" son:
catorce (14)
cien (100)
cinco (5)
cincuenta (50)
cuarenta (40)
cuatro (4)
Al ordenar estos nÚmeros alfabÃĐticamente, "catorce" viene primero porque "ca" precede a "ci" y "cu" en el alfabeto. No hay nÚmeros del 1 al 100 que comiencen con letras anteriores a la "c" en espaÃąol.
Por lo tanto, el primer nÚmero en la lista alfabÃĐtica del 1 al 100 en espaÃąol es "catorce" (14).
Respuesta: catorce (14)
Eres muy grande ðð
Ey. Entonces Claudio es mucho mejor de lo que creÃamos con un simple prompt?
Carlos tu contenido es excelente vigila el audio amigo dirÃa que es de las cosas mÃĄs importantes para no perder la atenciÃģn de tus espectadores
*BRAVO!!!!*
Uff que mal que haya sido falso, pero como dices, la idea es buena, y no veo descabellado que el propio facebook intenten aplicar esta tecnica dado que se ha tomado la molestia sobre entrenar sus modelos para que estos sean mas pequeÃąos y con mayor rendimiento.
Actualmente este es el mejor prompt para la IA?
Creo que empresas como meta o Google lo que hacen es precisamente generar confianza. No generar funciones con tan poco control o bases. Y deberÃamos enfocar mucho a lo que ellos estÃĄn haciendo
Google no es de confiar ,hizo lo de gemini ,la Única confiable es open ia
No todo es falsedad, se demuestra que mejorando el prompting se logra mejorar por mucho al modelo.
A eso me refiero... Los humanos son muy reactivos. Por ser un Bulo, no significa que sus argumentos lo sean.
Los argumentos dicen que Mejora con un mejor Prompting, y genera una reflexiÃģn artificial para mejorar su respuesta una vez la puede ver por segunda vez. No entiendo por quÃĐ los humanos son tan poco capaces para separar parÃĄmetros. Reflection puede ser un Bulo, pero el argumento detrÃĄs es Probable.
Creo que ya llegamos a ese punto de la tecnologÃa donde los grandes avances YA NO van a provenir de un equipo pequeÃąo o de un llanero solitario que por el dÃa trabaja en una tecnolÃģgica y por la noche descubre avances tecnolÃģgicos de vanguardia, eso creo que ya no pasarÃĄ, por lo tanto cada que veamos a este tipo de genios desconocidos, desconfiemos.
La comunidad tiene que echarle imaginaciÃģn a ese test que va a utilizar para enjuiciar correctamente la calidad del modelo
Gracias @DotCSVLab Con un amigo nos aventuramos a trabajar con IA, queremos migrar para inundarnos en este mundo. donde nos recomendarÃas vivir? mountaint view, palo alto? gracias!
Tal vez se puede validar la intuicion de la comunidad
Si hasta lograron evitar un malware en linux, la comunidad tiene algo genial
Creo que lo Único rescatable de aquà es el patrÃģn de diseÃąo. Reflection no serÃĄ un fine-tuned LLM, pero sà puede servir como prompt template jaja
Ojala venga Mat diga que todo era bait y que era el villano dos pasos adelante de todos y tiene el modelo reflection 70B cocinado y listo para servir
Buena evaluaciob, el creador de reflection 70b, no reflexiono sobre su modelo ð .
Para mi lo impresionante no era que el modelo tuviera implementado de forma inherente este mecanismo de razonamiento, eso se logra con un buen data set y fine tuning,
Lo impresionante y lo que me desmoraliza es que un modelo de 70B con esta tÃĐcnica superaba a uno de 405B, es una verdadera pena que sea mentira.
Totalmente de acuerdo :(
Carlos, simplemente que des la cara es increible, no creo que debas culparte por lo que ha pasado, como dices lo que han hecho no tendrÃa mucho sentido. Hiciste tus pruebas y todo parecÃa ir bien, yo nunca hubiera pensado que la estÃĄn liando.