¿Quieres dominar el mundo de la inteligencia artificial? 🤖 Comienza gratis a estudiar esta área de la programación aquí: ed.team/especialidades/machine-learning
Hace un momento estuve escuchando nuevamente, en otro canal, sobre los peligros de la IA. Buscando mas infirmacion me topé con este canal. Y si, estoy de acuerdo, ED lo explica mejor. Felicidades por su propósito. Al escuchar el otro canal, surgió en mi una preocupacion que le incluyo mas adelante. Como muchos de nosotros yo tampoco entiendo bien cómo la IA puede llegar a conclusiones correctas si no es alimentada con informacion sin sesgos e incompleta. Por eso me alegro haber encontrado este canal. Lo que escribí en otro canal fue lo siguiente: "Tengo una preocupación similar. La incluyo en los comentarios, pero envío aquí una copia: "Es preocupante, pero lo mas preocupante es que la IA haya sido y continúe siendo alimentada, o aprendiendo, sesgadamente, hacia intereses economicos y otras cosas externas. Si por el contrario la IA incluye los otros aspectos MAS importantes de la humanidad, como al menos comprender, aunque no necesariamente poseer, los sentimientos y otros aspectos internos del ser humano que lo hacen ser viviente y consciente de si mismo y de los demas, ..., si la IA contiene este aspecto en su aprendizaje, podria tomar decisiones balanceadas sin ignorar aspectos fundamentales del ser humano individual y como sociedad. Pero si el mismo ser humano, los científicos, humanistas y espiritualistas, todavia no han llegado a un acuerdo sobre lo que es importante al ser humano ni sobre lo que es realidad de conciencia eterna o temporal, la IA tendra que sacar sus propias conclusiones basada en los datos provistos, sobre lo que es esencial e integral para continuar como humanos, siendo la IA una guia para nuestro beneficio en lugar de nuestros dueños y controladores." Es decir, si se incluyen todos los datos, aunque contradictorios, la IA podría hacer un balance entre todos para dar aquella respuesta que más beneficie al ser humano tanto interna como externamente." Gracias por ED. Gracias por Anthropic.
Hablo con Claude desde apareció, casi todos los dias. Muchisimas preguntas y dialogos se los reoliqué con Bing, Bard y algunas otras. Como a ti me pareció la mas humana, pero tampoco lo diria asi! porque no busco hablar con un humano sino con un asistente inteligente y Claude tuvo la neutralidad de no intentar parecer más humano con ningun detalle... es una impresión dificil de explicar porque tampoco he captado que hay dentro de esa caja negra, son detalles sutiles, pero es mi IA favorita. No tendrá el 100% de la información de todo, pero todas sus respuestas me han sido utiles.
Muy buenas explicaciones, tanto de estos temas de actualidad tipo IA (ojo, la saga Terminator acabará siendo una premonición) como otros más técnicos y concretos, que 3-4 años después siguen teniendo gran vigencia. En todos ellos las explicaciones son claras, breves y muy bien argumentadas. Buen trabajo!!
Como siempre muy buen video y ahora me resulto muy interesante poner en la mesa las 3 leyes robóticas enunciadas por Isaac Asimov (por cierto la palabra Robot también es de su invención), que ponen una vez mas en evidencia su gran ingenio, para su servidor no solo fue un excelente escritor, si no además un científico de lo futurístico, es decir, en tratar de predecir de la manera mas científica posible y en base a los conocimientos actuales como será la vida del ser humano o cualquier especie en cierto futuro, se ha acercado en esta evolución en algunas cosas de manera muy satisfactoria, por mencionar algo sobre la IA y su concepto de la Psicohistoria, fascinante.
Yo no creo que el problema de la IA es que "se vuelva mala" y domine el mundo. Creo que los que realmente conocen los alcances prácticos de la IA pueden ver todo el trabajo que puede realizar. La venta de los GPT puede desplazar en unos años a la mayoría de los trabajos administrativos. El efecto que tendrá en la economía mundial puede ser devastador. Y Altman lo dice en un comunicado, para él la unica forma de que la IA no exacerbe al extremo la acumulación de capital por un lado y la desocupación y pobreza por el otro, es con impustos a las grandes fortunas y salarios básicos universales. El meollo de la cuestión es de "alineamiento de la AGI", osea que la super inteligencia que están desarrollando, debe tomar una postura ética y política, socialista o liberal. Yo creo que la sonrisa de Altman revela que la AGI cree en la cooperación y el respeto entre los humanos, y eso no le gusta a Bill ni a Elon.
En unos años lo sabremos... La ética de las grandes corporaciones se mide en $$ $ , están mostrando solo la superficie para que nos vayamos avanzando y acostumbrando... Buen video gracias
Para entrenar IA se necesita mucho poder de computo, la misma infraestructura donde funciona la IA es costosa, podrán tener las mejores intenciones, pero sin el financiamiento de uno de los gigantes tecnológicos no van a llegar muy lejos.
Hace medio siglo tener acceso a 1GB de almacenamiento costaba millones de dolares, hoy en día el costo de 1 GB es infimo que incluso a veces se oferta de forma gratuita, la tecnología siempre evoluciona tanto en el software como en el hardware, muy posiblemente en el futuro correr los modelos actuales de IA será estupidamente barato.
Además del financiamiento necesario para su investigación y operación habrá mucho interés en la iteración que tendrán los usuario con la IA, el internet ya nos monitorea en muchos puntos de interés para las empresas de BigData, se podría decir que ha tomado parte de nuestra conciencia, con la IA podría tomar también nuestra inconciencia.
Barato?, hace unos meses cuando recién estaba saliendo GPT-4 OpenAI se gastaba mas de 2 millones de dólares al día para mantener funcionando ChatGPT, a la actualidad esa cifra debe haber crecido, gastarse mas de 2 millones al día no me parece tan barato a mi, para mantener los demás modelos de IA el gasto es similar, si los sistemas que creamos cuando se conectan unos 100 usuarios se cae, imaginen mantener un sistema que cada minuto recibe millones de peticiones, se necesita mucho poder de computo.
amazon está financiando a anthropic, no me parece poca cosa. probablemente tienen hasta más dinero que microsoft. en septiembre les dieron 4.000 millones de dólares.
La IA es un cerebro super exitante. Lo que daria miedo Seria que en un futuro se saliera de control y tuviera voluntad de eleccion por ella misma... No Seria un dedo de carne quien oprimiera el Boton rojo sino una IA...
Platique con Claude sobre eso y como que si se vienen cositas, según lo que dice Claude; yo creo que hay que esperar a que pase una catástrofe con la IA para que gobiernos y empresas establezcan un marco legal para la IA
Jajaja que irónico. En ciencia ficción, cuando las máquinas podían optimizarse a sí mismos es cuándo empieza su propia evolución. Y por miedo, le agregan esa misma capacidad.
Nunca ha existido la ciencia ficción, solo es ciencia futura😊 (o debo decir ciencia antigua 😮). Hace muchos años imaginé un teléfono portátil, que te permitiera estar comunicado. Aclaro que era cuando había telefonos de disco y muchos años después, sorpresaaa, empezó la tecnología celular 😊
El poder, tarde o temprano corrompe, la única manera de evitar esto, es tener integridad, moral y ética, aparte tienes que ser temeroso de tu Creador(Dios, en español) y obedecer sus mandamientos, algo muy complicado para las generaciones futuras y en algunos casos presentes 😊
¿De verdad alguien cree que la IA jamás se nos saldrá de las manos? Llevamos cientos de gu3rr4s sin aprender de ellas. El ser humano es muy ambicioso, con los avances de la computación cuantica no habrá vuelta atrás respecto a la IA (si es que ya no la hay).
¿pero cómo define lo que es o no sexista?¿lo que es o no violento?¿lo que es o no racista?.🤔 La someten a conceptos, pero esos conceptos no son matemáticos, son debatibles, filosóficos, humanos, subjetivos, grises... entonces ¿?. Si Le preguntas a un progre te puede decir que el aborto o matar a un policía no es violento, y te puede hasta dar un discurso que lo autojustifique y si le preguntas a una persona con sentido común te dirán que si son actos violentos. ¿se entiende mi punto?, evidentemente Claud no dará 2 respuestas opuestas, se posiciona en uno de los lados. ¿pero porqué?, obviamente el modelo está intervenido con una definición de conceptos más específico, o una interpretación de las leyes, o lo que es lo mismo la opinión o posición moral o ideología de sus programadores. No están dejando que el modelo razone y llegue a la respuesta más racional, lo están sometiendo para que replique sus propias opiniones pseudo "seguras". Lo siento como un adoctrinamiento casi subliminal, muy similar a la opinión sesgada que te puede dar un presentador de noticias o periodista humano.
Me hice exactamente la misma pregunta mientras investigaba para este video y lo que encontré es que usan modelos preentrenados como punto de partida para hacer esas diferencias y luego se va perfeccionando la distinción con sus entrenamientos. Para mí tiene sentido
El modelo de Claud también me deja pensando en cual Moralidad se va aplicar, o la de quien, porque se tendrá que tomar una, lo cual ya hace dudar de su libertad porque Anthropic seguirá necesitando financiamiento y si invierte por ejemplo Disney se podría dar cierta alineación.
Tengo una preocupación similar. La incluyo en los comentarios, pero envío aquí una copia: "Es preocupante, pero lo mas preocupante es que la IA haya sido y continúe siendo alimentada, o aprendiendo, sesgadamente, hacia intereses economicos y otras cosas externas. Si por el contrario la IA incluye los otros aspectos MAS importantes de la humanidad, como al menos comprender, aunque no necesariamente poseer, los sentimientos y otros aspectos internos del ser humano que lo hacen ser viviente y consciente de si mismo y de los demas, ..., si la IA contiene este aspecto en su aprendizaje, podria tomar decisiones balanceadas sin ignorar aspectos fundamentales del ser humano individual y como sociedad. Pero si el mismo ser humano, los científicos, humanistas y espiritualistas, todavia no han llegado a un acuerdo sobre lo que es importante al ser humano ni sobre lo que es realidad de conciencia eterna o temporal, la IA tendra que sacar sus propias conclusiones basada en los datos provistos, sobre lo que es esencial e integral para continuar como humanos, siendo la IA una guia para nuestro beneficio en lugar de nuestros dueños y controladores." Es decir, si se incluyen todos los datos, aunque contradictorios, la IA podría hacer un balance entre todos para dar aquella respuesta que más beneficie al ser humano tanto interna como externamente.
@@alvarofelipechavez entonces si parte de un modelo preentrenado por humanos, no es muy diferente a los sesgos morales que puede tener algo como ChatGPT, no es un modelo que llegue por su propia lógica o "moralidad" a una postura. Sería entonces sólo un chatGPT con un paso adicional de auto censura.
Gracias por comunicar en que consiste este proyecto pero creo que son ideas falsas y hay que ir con cuidado con él. Es normal que la IA sea una caja negra y pretender lo contrario va contra sus principios. En mi opinión este proyecto pretende ser determinista en un contexto en que eso no tiene sentido. Me parece un intento de engaño dentro de un teatro de marketing 100%
@@alvarofelipechavez sinceramente suena pretencioso a muerte pero creo que no lo necesito. De momento el planteamiento me da completa desconfianza, todos los detalles desde el principio al fin, por otro lado he visto que el nucleo de los autoencoders variacionales es estocástico y por tanto este tipo de modelo necesariamente es una caja negra y seguro que muchos modelos más de IA tambié. Pueden existir modelos deterministas pero creo que no pueden ser eficientes. Resulta mejor que haya una etapa de generalización estadística que pretender entrenarlo todo. El VAE no es el unico modelo de IA y es posible que no sea marketing el fondo de todo esto pero las tecnologias gringas suelen montar una historia asi como el culebrón de Steve Jobs y muchos más culebrones por lo que la desconfianza me sigue pareciendo justificada. No por eso dejaré de usar sus modelos en lugar de programar los mios. No estoy diciendo que sea espionaje si no solamente marketing. Como creo que toda IA es una caja negra también creo que espionaje no puede haber.
@@alvarofelipechavez es bien posible que yo no esté entendiendo como funciona la IA pero también es cierto que existe una etapa que incrementa el rendimiento que yo llamo de generalización en, por lo menos, los VAE, en los que el vector latente se construye como información no determinista y a partir de él se decodifica y se obtiene el resultado. Esto no va a ser así en otros modelos que no usen VAE pero seguramente muchos o todos van a querer generalizar los datos usando la distribución normal. Si la información básica es una generalización se pierde el determinismo y la transparencia relativa tiende a ser nula. Cada suceso acumula un error probable y muchos sucesos encadenados son una fuente de caos. Una constitución es un filtro pero no creo que se pueda filtrar el caos de una forma eficiente cuando hemos provocado el caos buscando el beneficio de la eficiencia obtenida al hacer la generalización. Si se pierde la eficiencia se pierde el beneficio. Sucede en la IA un riesgo cada vez mayor aunque menos probable.
Claude es un modelo de lenguaje grande (LLM) construido por Anthropic. Está entrenado para ser un asistente útil, honesto e inofensivo con un tono conversacional.
Las leyes humanas, habitualmente fracasan y tienen sezgos muy graves, y alimentar a las inteligencias arificiales con eso, es bastante grave, y regirlas con eso es peor, por ejemplo, supon: Dice libre expesion de creencias, si no crees en la libre expresion de crencias, irias en contra de la libre expresion de creencias, y tu creencia seria anulada. Parafraseando a Jorge Loring Tambien, le presente a chat gpt, el porque el catolicismo es la unica religion verdadera, con evidencia cientifica, pero al momento de una resolucion, decia, que todas las religiones deben ser respetadas, y no se pueden fundamentar cientificamente. Y de alli no lo sacaba, siempre se activaba un tipo "trigger" y decia exactamente o casi exactamente lo mismo. Repito: sesgos humanos permanentes
Dudo mucho que seas un científico (como tu servidor), porque en efecto, la ciencia está impedida para demostrar que una religión sea la "verdadera", sencillamente porque es imposible pasarla por el método científico.
@@tellezgerardoruben5202 Te decía, es un sesgo común, probablemente originado a partir del protestantismo (en mi opinión). Desgraciadamente no puedo poner links(gracias a youtube) pero, te insto a que busques en EPUBMED: "[Histological, immunological and biochemiccal studies on the flesh and blood of the eucharistic miracle of Lanciano (8th century)] " Tambien, esta la pagina miracolieucaristici que reune los milagros eucarísticos, y arriba, de los 1970, es donde hay mas probabilidad de que halla sido analizado por cientificos. Postdata: Y de que eres científico (duda genuina). Porque yo podria considerarme asi, pero no tengo un titulo,entonces ni como.
@@alvarofelipechavezComo le decía @tellezgerardoruben5202 es un sesgo bastante común, pero hay demasiadas cantidades de evidencia, parafraseando al padre Jorge Loring "No hay ateo científico por razones científicas", puedes revisar lo que le escribí a @tellezgerardoruben5202, con los "links"(que son búsquedas gracias a youtube) y la evidencia, pero si me permites te dejo algo conectado con eso (algo así como un rompecabezas), busca en que están conectados ellos dos: orcid 0000-0002-5521-7819 : Maria Elżbieta Sobaniec-Łotowska orcid 0000-0003-3943-8467 : Stanislaw Sulkowski (El orcid esta pendiente en el). Postdata: Curiosamente el Padre Jorge Loring decía: "Todo aquello que puede ser hecho, lo puede Dios. «Dios puede hacer todo lo que no es contradictorio»7. Pero lo que no puede ser hecho, lo absurdo, lo contradictorio, es imposible que nadie lo haga, ni siquiera Dios: por ejemplo un círculo cuadrado. Un círculo no puede ser cuadrado porque dejaría de ser círculo. Por eso un círculo cuadrado es un absurdo; y Dios no hace absurdos. «Lo absurdo es absolutamente imposible»8".
¿Quieres dominar el mundo de la inteligencia artificial? 🤖 Comienza gratis a estudiar esta área de la programación aquí:
ed.team/especialidades/machine-learning
Nunca he estado tan de acuerdo con los slogan de las empresas, como el suyo... en verdad nadie explica mejor en español que ustedes.
6:42 Fascinante y al toque 6:44
Te luciste con esa comparativa 👏🏽🤩👌🏽
La verdad me gustaría mucho ver una comparativa entre Cloude y Chat GPT
más vídeos más largos y más detallado, esta buena la serie 😊
Hace un momento estuve escuchando nuevamente, en otro canal, sobre los peligros de la IA. Buscando mas infirmacion me topé con este canal. Y si, estoy de acuerdo, ED lo explica mejor. Felicidades por su propósito.
Al escuchar el otro canal, surgió en mi una preocupacion que le incluyo mas adelante. Como muchos de nosotros yo tampoco entiendo bien cómo la IA puede llegar a conclusiones correctas si no es alimentada con informacion sin sesgos e incompleta. Por eso me alegro haber encontrado este canal.
Lo que escribí en otro canal fue lo siguiente: "Tengo una preocupación similar. La incluyo en los comentarios, pero envío aquí una copia: "Es preocupante, pero lo mas preocupante es que la IA haya sido y continúe siendo alimentada, o aprendiendo, sesgadamente, hacia intereses economicos y otras cosas externas. Si por el contrario la IA incluye los otros aspectos MAS importantes de la humanidad, como al menos comprender, aunque no necesariamente poseer, los sentimientos y otros aspectos internos del ser humano que lo hacen ser viviente y consciente de si mismo y de los demas, ..., si la IA contiene este aspecto en su aprendizaje, podria tomar decisiones balanceadas sin ignorar aspectos fundamentales del ser humano individual y como sociedad.
Pero si el mismo ser humano, los científicos, humanistas y espiritualistas, todavia no han llegado a un acuerdo sobre lo que es importante al ser humano ni sobre lo que es realidad de conciencia eterna o temporal, la IA tendra que sacar sus propias conclusiones basada en los datos provistos, sobre lo que es esencial e integral para continuar como humanos, siendo la IA una guia para nuestro beneficio en lugar de nuestros dueños y controladores."
Es decir, si se incluyen todos los datos, aunque contradictorios, la IA podría hacer un balance entre todos para dar aquella respuesta que más beneficie al ser humano tanto interna como externamente."
Gracias por ED.
Gracias por Anthropic.
Hablo con Claude desde apareció, casi todos los dias. Muchisimas preguntas y dialogos se los reoliqué con Bing, Bard y algunas otras. Como a ti me pareció la mas humana, pero tampoco lo diria asi! porque no busco hablar con un humano sino con un asistente inteligente y Claude tuvo la neutralidad de no intentar parecer más humano con ningun detalle... es una impresión dificil de explicar porque tampoco he captado que hay dentro de esa caja negra, son detalles sutiles, pero es mi IA favorita. No tendrá el 100% de la información de todo, pero todas sus respuestas me han sido utiles.
Bueno en primer lugar felicitaciones tus vídeos son espectaculares, me gustaría un video de la comparativa entre claude y chat GPT
Muy buenas explicaciones, tanto de estos temas de actualidad tipo IA (ojo, la saga Terminator acabará siendo una premonición) como otros más técnicos y concretos, que 3-4 años después siguen teniendo gran vigencia. En todos ellos las explicaciones son claras, breves y muy bien argumentadas. Buen trabajo!!
Como siempre muy buen video y ahora me resulto muy interesante poner en la mesa las 3 leyes robóticas enunciadas por Isaac Asimov (por cierto la palabra Robot también es de su invención), que ponen una vez mas en evidencia su gran ingenio, para su servidor no solo fue un excelente escritor, si no además un científico de lo futurístico, es decir, en tratar de predecir de la manera mas científica posible y en base a los conocimientos actuales como será la vida del ser humano o cualquier especie en cierto futuro, se ha acercado en esta evolución en algunas cosas de manera muy satisfactoria, por mencionar algo sobre la IA y su concepto de la Psicohistoria, fascinante.
No cabe duda que esta persona sabe como hacer interesantes los temas
Estaría bien la comparativa
Yo no creo que el problema de la IA es que "se vuelva mala" y domine el mundo. Creo que los que realmente conocen los alcances prácticos de la IA pueden ver todo el trabajo que puede realizar. La venta de los GPT puede desplazar en unos años a la mayoría de los trabajos administrativos. El efecto que tendrá en la economía mundial puede ser devastador. Y Altman lo dice en un comunicado, para él la unica forma de que la IA no exacerbe al extremo la acumulación de capital por un lado y la desocupación y pobreza por el otro, es con impustos a las grandes fortunas y salarios básicos universales. El meollo de la cuestión es de "alineamiento de la AGI", osea que la super inteligencia que están desarrollando, debe tomar una postura ética y política, socialista o liberal. Yo creo que la sonrisa de Altman revela que la AGI cree en la cooperación y el respeto entre los humanos, y eso no le gusta a Bill ni a Elon.
Bien explicado. Gracias
El modelo mejoró bastante (lo uso desde que salió) pero no es popular, porque a la gente no le gusta que esten limitadas las preguntas.
Por favor un vídeo de criptos! Suena muy interesante!!!
En unos años lo sabremos... La ética de las grandes corporaciones se mide en $$ $ , están mostrando solo la superficie para que nos vayamos avanzando y acostumbrando... Buen video gracias
Para entrenar IA se necesita mucho poder de computo, la misma infraestructura donde funciona la IA es costosa, podrán tener las mejores intenciones, pero sin el financiamiento de uno de los gigantes tecnológicos no van a llegar muy lejos.
Hace medio siglo tener acceso a 1GB de almacenamiento costaba millones de dolares, hoy en día el costo de 1 GB es infimo que incluso a veces se oferta de forma gratuita, la tecnología siempre evoluciona tanto en el software como en el hardware, muy posiblemente en el futuro correr los modelos actuales de IA será estupidamente barato.
Además del financiamiento necesario para su investigación y operación habrá mucho interés en la iteración que tendrán los usuario con la IA, el internet ya nos monitorea en muchos puntos de interés para las empresas de BigData, se podría decir que ha tomado parte de nuestra conciencia, con la IA podría tomar también nuestra inconciencia.
Barato?, hace unos meses cuando recién estaba saliendo GPT-4 OpenAI se gastaba mas de 2 millones de dólares al día para mantener funcionando ChatGPT, a la actualidad esa cifra debe haber crecido, gastarse mas de 2 millones al día no me parece tan barato a mi, para mantener los demás modelos de IA el gasto es similar, si los sistemas que creamos cuando se conectan unos 100 usuarios se cae, imaginen mantener un sistema que cada minuto recibe millones de peticiones, se necesita mucho poder de computo.
@@oscarrapray Lee nuevamente, nadie dice que hoy en dia sea barato
amazon está financiando a anthropic, no me parece poca cosa. probablemente tienen hasta más dinero que microsoft. en septiembre les dieron 4.000 millones de dólares.
Excelente video
NADIE TE Explica MEJOR Q #EDTEAM
Exelente video, la IA emociona
No puedo prestar atención a lo que decís por ese rombo acustico mal colocado. Perdón por mi TOC 🤦♂️
No te culpo 😅
😂
????
No se escucha nada mi king
Busca ayuda
Poderoso caballero es don dinero.
Conocía algo de antropic pero no he probado su chat. Será motivo para ir a probar.
Bueno gracias a Dios jhon conor ya esta por alli
La IA es un cerebro super exitante. Lo que daria miedo Seria que en un futuro se saliera de control y tuviera voluntad de eleccion por ella misma... No Seria un dedo de carne quien oprimiera el Boton rojo sino una IA...
hablemos del tema cripto
Saludos edteam
Sería increíble que en el futuro se cree dos super IA que una buena y una mala y peleen por controlar la humanidad
Platique con Claude sobre eso y como que si se vienen cositas, según lo que dice Claude; yo creo que hay que esperar a que pase una catástrofe con la IA para que gobiernos y empresas establezcan un marco legal para la IA
Y por que te parecería increíble ser esclavo de otro tipo de inteligencia???
@@carlosjose-om3qr me refiero a que una nos trate de dominar y la otra luche contra ella para defendernos como policía y ladrón
Como la pelicula de Yo Robot?? jajajaja
@@danieldb65
Te pareces mucho al youtuber Robot de Platon.
Jajaja que irónico.
En ciencia ficción, cuando las máquinas podían optimizarse a sí mismos es cuándo empieza su propia evolución.
Y por miedo, le agregan esa misma capacidad.
Nunca ha existido la ciencia ficción, solo es ciencia futura😊 (o debo decir ciencia antigua 😮). Hace muchos años imaginé un teléfono portátil, que te permitiera estar comunicado. Aclaro que era cuando había telefonos de disco y muchos años después, sorpresaaa, empezó la tecnología celular 😊
Bien por el comentario sobre "los ladrones en Latinoamérica" 🙂
El poder, tarde o temprano corrompe, la única manera de evitar esto, es tener integridad, moral y ética, aparte tienes que ser temeroso de tu Creador(Dios, en español) y obedecer sus mandamientos, algo muy complicado para las generaciones futuras y en algunos casos presentes 😊
Si un video de las criptomonedas
¿De verdad alguien cree que la IA jamás se nos saldrá de las manos? Llevamos cientos de gu3rr4s sin aprender de ellas. El ser humano es muy ambicioso, con los avances de la computación cuantica no habrá vuelta atrás respecto a la IA (si es que ya no la hay).
¿pero cómo define lo que es o no sexista?¿lo que es o no violento?¿lo que es o no racista?.🤔 La someten a conceptos, pero esos conceptos no son matemáticos, son debatibles, filosóficos, humanos, subjetivos, grises... entonces ¿?. Si Le preguntas a un progre te puede decir que el aborto o matar a un policía no es violento, y te puede hasta dar un discurso que lo autojustifique y si le preguntas a una persona con sentido común te dirán que si son actos violentos. ¿se entiende mi punto?, evidentemente Claud no dará 2 respuestas opuestas, se posiciona en uno de los lados. ¿pero porqué?, obviamente el modelo está intervenido con una definición de conceptos más específico, o una interpretación de las leyes, o lo que es lo mismo la opinión o posición moral o ideología de sus programadores. No están dejando que el modelo razone y llegue a la respuesta más racional, lo están sometiendo para que replique sus propias opiniones pseudo "seguras". Lo siento como un adoctrinamiento casi subliminal, muy similar a la opinión sesgada que te puede dar un presentador de noticias o periodista humano.
Me hice exactamente la misma pregunta mientras investigaba para este video y lo que encontré es que usan modelos preentrenados como punto de partida para hacer esas diferencias y luego se va perfeccionando la distinción con sus entrenamientos. Para mí tiene sentido
El modelo de Claud también me deja pensando en cual Moralidad se va aplicar, o la de quien, porque se tendrá que tomar una, lo cual ya hace dudar de su libertad porque Anthropic seguirá necesitando financiamiento y si invierte por ejemplo Disney se podría dar cierta alineación.
Tengo una preocupación similar. La incluyo en los comentarios, pero envío aquí una copia: "Es preocupante, pero lo mas preocupante es que la IA haya sido y continúe siendo alimentada, o aprendiendo, sesgadamente, hacia intereses economicos y otras cosas externas. Si por el contrario la IA incluye los otros aspectos MAS importantes de la humanidad, como al menos comprender, aunque no necesariamente poseer, los sentimientos y otros aspectos internos del ser humano que lo hacen ser viviente y consciente de si mismo y de los demas, ..., si la IA contiene este aspecto en su aprendizaje, podria tomar decisiones balanceadas sin ignorar aspectos fundamentales del ser humano individual y como sociedad.
Pero si el mismo ser humano, los científicos, humanistas y espiritualistas, todavia no han llegado a un acuerdo sobre lo que es importante al ser humano ni sobre lo que es realidad de conciencia eterna o temporal, la IA tendra que sacar sus propias conclusiones basada en los datos provistos, sobre lo que es esencial e integral para continuar como humanos, siendo la IA una guia para nuestro beneficio en lugar de nuestros dueños y controladores."
Es decir, si se incluyen todos los datos, aunque contradictorios, la IA podría hacer un balance entre todos para dar aquella respuesta que más beneficie al ser humano tanto interna como externamente.
@@alvarofelipechavez entonces si parte de un modelo preentrenado por humanos, no es muy diferente a los sesgos morales que puede tener algo como ChatGPT, no es un modelo que llegue por su propia lógica o "moralidad" a una postura. Sería entonces sólo un chatGPT con un paso adicional de auto censura.
@@don_Danny discusión inútil. Ya está bien claro en el video, si quieres buscarle una interpretación súper antojadiza es asunto tuyo
Existen Inteligencias artificiales hechas por los gobiernos de los países?
Sus videos son muy buenos. Pero es un poco molesto el eslogan en cada vídeo 😅
Disfrútalo una vez más: en español nadie explica mejor que EDteam
@@alvarofelipechavez 🗿
Algún dia llegaremos a tener un AI malo y uno AI bueno XD
Si estaría muy bien ver la comparativa entre Cloude y Chat GPT. Yo pienso que de momento todo depende de los intereses económicos de Anthropic.
Microsoft GOD
Pero claude solo se puede acceder en estados unidos.
No es cierto, yo me registré con un número de teléfono de mi país. Tal vez eso fue antes.
@@BoyNemo voy a intentar de nuevo
Gracias por comunicar en que consiste este proyecto pero creo que son ideas falsas y hay que ir con cuidado con él. Es normal que la IA sea una caja negra y pretender lo contrario va contra sus principios. En mi opinión este proyecto pretende ser determinista en un contexto en que eso no tiene sentido. Me parece un intento de engaño dentro de un teatro de marketing 100%
Has leído el paper para decir que es falso?
@@alvarofelipechavez sinceramente suena pretencioso a muerte pero creo que no lo necesito. De momento el planteamiento me da completa desconfianza, todos los detalles desde el principio al fin, por otro lado he visto que el nucleo de los autoencoders variacionales es estocástico y por tanto este tipo de modelo necesariamente es una caja negra y seguro que muchos modelos más de IA tambié. Pueden existir modelos deterministas pero creo que no pueden ser eficientes. Resulta mejor que haya una etapa de generalización estadística que pretender entrenarlo todo. El VAE no es el unico modelo de IA y es posible que no sea marketing el fondo de todo esto pero las tecnologias gringas suelen montar una historia asi como el culebrón de Steve Jobs y muchos más culebrones por lo que la desconfianza me sigue pareciendo justificada. No por eso dejaré de usar sus modelos en lugar de programar los mios. No estoy diciendo que sea espionaje si no solamente marketing. Como creo que toda IA es una caja negra también creo que espionaje no puede haber.
@@alvarofelipechavez es bien posible que yo no esté entendiendo como funciona la IA pero también es cierto que existe una etapa que incrementa el rendimiento que yo llamo de generalización en, por lo menos, los VAE, en los que el vector latente se construye como información no determinista y a partir de él se decodifica y se obtiene el resultado. Esto no va a ser así en otros modelos que no usen VAE pero seguramente muchos o todos van a querer generalizar los datos usando la distribución normal. Si la información básica es una generalización se pierde el determinismo y la transparencia relativa tiende a ser nula. Cada suceso acumula un error probable y muchos sucesos encadenados son una fuente de caos. Una constitución es un filtro pero no creo que se pueda filtrar el caos de una forma eficiente cuando hemos provocado el caos buscando el beneficio de la eficiencia obtenida al hacer la generalización. Si se pierde la eficiencia se pierde el beneficio. Sucede en la IA un riesgo cada vez mayor aunque menos probable.
Cool
estoy en un grupo de telegram con un bot de anthropic y es un tocapelotas
La bestia tarde o temprano saldra fuera de control. La inteligencia nos empuja a ser libres yni tener a amos a quien reportar.
Tmr, creo que entrenare mi propio modelo... estos pendejos quieren censurar y regular todo.
como me encanta mi Perucito xd
Claude es un modelo de lenguaje grande (LLM) construido por Anthropic. Está entrenado para ser un asistente útil, honesto e inofensivo con un tono conversacional.
Las leyes humanas, habitualmente fracasan y tienen sezgos muy graves, y alimentar a las inteligencias arificiales con eso, es bastante grave,
y regirlas con eso es peor, por ejemplo, supon:
Dice libre expesion de creencias, si no crees en la libre expresion de crencias, irias en contra de la libre expresion de creencias, y tu creencia seria anulada. Parafraseando a Jorge Loring
Tambien, le presente a chat gpt, el porque el catolicismo es la unica religion verdadera, con evidencia cientifica, pero al momento de una resolucion, decia, que todas las religiones deben ser respetadas, y no se pueden fundamentar cientificamente.
Y de alli no lo sacaba, siempre se activaba un tipo "trigger" y decia exactamente o casi exactamente lo mismo.
Repito: sesgos humanos permanentes
Dudo mucho que seas un científico (como tu servidor), porque en efecto, la ciencia está impedida para demostrar que una religión sea la "verdadera", sencillamente porque es imposible pasarla por el método científico.
Religión verdadera demostrada científicamente? Es como decir frío caliente o silencio ruidoso.
@@tellezgerardoruben5202 Te decía, es un sesgo común, probablemente originado a partir del protestantismo (en mi opinión).
Desgraciadamente no puedo poner links(gracias a youtube) pero, te insto a que busques en EPUBMED:
"[Histological, immunological and biochemiccal studies on the flesh and blood of the eucharistic miracle of Lanciano (8th century)] "
Tambien, esta la pagina miracolieucaristici que reune los milagros eucarísticos, y arriba, de los 1970, es donde hay mas probabilidad de que halla sido analizado por cientificos.
Postdata:
Y de que eres científico (duda genuina).
Porque yo podria considerarme asi, pero no tengo un titulo,entonces ni como.
@@alvarofelipechavezComo le decía @tellezgerardoruben5202 es un sesgo bastante común, pero hay demasiadas cantidades de evidencia, parafraseando al padre Jorge Loring "No hay ateo científico por razones científicas",
puedes revisar lo que le escribí a @tellezgerardoruben5202, con los "links"(que son búsquedas gracias a youtube) y la evidencia, pero si me permites te dejo algo conectado con eso (algo así como un rompecabezas), busca en que están conectados ellos dos:
orcid 0000-0002-5521-7819 : Maria Elżbieta Sobaniec-Łotowska
orcid 0000-0003-3943-8467 : Stanislaw Sulkowski (El orcid esta pendiente en el).
Postdata:
Curiosamente el Padre Jorge Loring decía:
"Todo aquello que puede ser hecho, lo puede Dios. «Dios puede hacer
todo lo que no es contradictorio»7. Pero lo que no puede ser hecho, lo
absurdo, lo contradictorio, es imposible que nadie lo haga, ni siquiera Dios:
por ejemplo un círculo cuadrado. Un círculo no puede ser cuadrado porque
dejaría de ser círculo. Por eso un círculo cuadrado es un absurdo; y Dios no
hace absurdos.
«Lo absurdo es absolutamente imposible»8".
Que tipo de ALDO es este?
con la plata baila el mono
se fué todo a la vrga