Esto ya se veía venir, como el ejemplo que a veces pongo, si escribo en chino, envio audios en chino y hablo con chinos, el algoritmo creera que soy chino, cuando en realidad solo quiero aprender chino
@@claptonelyarnorthon4912 Te sorprenderías de cuantos errores así hay en realidad porque crees que hay vídeos de youtube que sin ser permitidos siguen ahí mientras que los que estan en inglés no 🤣
Asi no funciona una red neuronal, es algo mas primitivo que lo que te imaginas, al ultimo son las mismas bases de calculo que te enseñaron en la escuela, no es tan moderno como crees y muchas cosas han sido usadas en ingenieria por decadas. La diferencia es que aun estamos en pañales, hay muchas cosas que son nuevas pero no se han utilizado comercialmente para emcontrarle fallas. Por eso debe de probarse muy bien por que a una red neuronal la entrenas con datos y si estos estan mal la red neuronal va tener muchas fallas, lo del color de piel es por falta de datos y por que ciertas arquitecturas de redes neuronales son muy malas para detectar formas, estas son mejores para texturas..
Jajajajaj de verdad piensas que la credibilidad de una periodística alemana depende de la opinión cómica de "microcraft cienciólogo". Tan siquiera ¿entiendes todo el contexto racista, sociológico, e incluso tu que eres latino , el como te puede afectar esto?
sinceramente este reportaje me parece un absurdo de manipulación, ¿cuantas veces no se ha equivocado al revés de relacionar la mano blanca con la pistola y la negra con otra cosa? ¿una tipa tenía problemas con UN software de reconocimiento cuando hay cientos de otros software dando vueltas en redes sociales como el que te cambiaba de sexo en facebook y funciona perfectamente con cualquier tipo de piel? que el problema son las camaras hechas por "HOMBRES BLANCOS" (solo les faltó decir heterosexuales) cuando hay un montón de modelos y actores negros que se ven espectaculares a través de las camáras, no sé si esa señora conocerá las cámaras de los últimso 2 siglos pero no se diseñan para que los "hombres blancos" se vean bien, se diseñan pensando en captar con la mayor fidelidad el mayor espectro de colores posibles y con variedad de condiciones de luz... solomente agarraron un montón de sucesos puntuales y quieren hacerlos pasar como algo sistemático.
@Dhemmlerf Esta hablando del espectro de luz infrarrojo una falla en el sensor que llaman camara debido a que solo detecta la luz infraroja reflejada por la piel blanca no es una camara con amplio espectro ._. y sí es un caso partícular que seguramente este ya solucionado
Eso no es racismo, es un algoritmo mal entrenado, con una solución simple, hablar que el hombre blanco tiene la culpa es racista, si en tu país casi no existe población de otra etnia, es seguro que la entrenadas para las mayorías. Las mayorías siempre van a tener la ventaja es algo democrático y casi biológico
africanos,musulmanes y otras etnias migran masivamente actualmente a europa y desde siempre a usa asi que pues si bien quiza ahora se encuentren mas blancos que negros eso puede ser muy diferente en unos años con una europa cuya poblacion autoctona esta cada vez mas envejecida
@@kkkaaa5967 Sí, pero no todos estan en domde se brindan los filtros ni menos quierem brindar sus datos, tienen más detalles que eso añadiendo que en ciertos lugares es casi imposible encontrarlos que en otros, los lugares son variables incluso dentro de un mismo país
Mi comentario va más en relación que se exagera con el término racismo, osea tengo un gato blanco y ya soy racista. Los algoritmos de IA no son perfectos y tienden a confundirse siempre, y si están más entrenados van a tener un sesgo hacia un lado... Es cosa de trabajar y entrenarlo mejor, con fotos parecidas de un plátano dependiendo de la luz puede decir que es una pistola 😅, es muy común... pero no es racista por qué el plátano sea amarillo o café...😅, Es cosa de hablar con un asistente de voz y vas a ver que no te entiende bien 😂, "quiero una tasa" a "quiere una papa" no una tasa, así una rana...😅
Entonces todos tenemos que ser como robots? Todos las personas iguales de color altura cabello? No podemos pensar discernir tener diferencias? O como? Claro que debe de haber diferencia todos somos diferentes afortunadamente
Yo lo que entiendo es que te refieres a que hablar de diferencias anatomicas y culturales, que definitivamente existen, ahora es considerado racismo, si es eso opino como tu, no se por que no se puede decir que alguien tiene rasgos orientales, otro europeo y alguien mas de nativo americano....ya nada es "politicamente correcto", tenemos que hacer de cuenta que no existen diferencias....que tonteria
El problema es que nos cuesta aceptar que la inteligencia artificial no es "polìticamente correcta", no es emocional sino sencillamente objetiva, hemos manipulado la información de manera a que nos haga sentir más cómodos, y ahora queremos manipular la inteligencia artificial .Yuval Harari nos advierte que en poco la inteligencia artificial comenzará a programarse a sí misma... y no esperemos que sea emocional, será simplemente objetiva. Y por lo tanto tremendamente injusta para los parámetros humanos.
Estás equivocado. La IA artificial procesa datos millones de veces más rápido que un humano y a pesar de eso puede estar en un error. Por ejemplo hay casos en dónde la IA no puede notar la diferencia entre unas dunas de desierto y un par de tetas. Y tener una inteligencia artificial que decida sobre temas de derechos o facilitarle la vida a una persona por ser blanca y que al negro lo aparte, eso es una mierda. Prácticamente te sentencia el día que naciste.
@@lucaswsvs117 Pero la estadística con la que se alimenta la IA sí puede estar sesgada. Si se le alimenta con datos falsos, muestreos mal hechos, etc., el resultado también será sesgado.
es un programa informatico de 1 y 0 por mas inteligencia artificial que le digan que es, NO TIENEN COCEPCION DE VIDA, mucho menos de racismo. a lo mucho son errores en el codigo pero no racismo por dios
Es difícil limitar cualquier tipo de inteligencia, incluso podría ser imposible. tarde o temprano una iA convergerá o "colapsara" en desarrollar una discriminazion igual a la que tendría nuestra concepción de Dios, básicamente un ser ultra conciente que solo pone las manos para que no caigan las cosas de una mesa, con nula intervención. Pero claro antes de que eso ocurra puede "colapsar" en algo que tire cosas de la mesa.
@@bryamvargas1371 yo si he estudiado ambas cosas. poseo un bachillerato en ingenieria de computadoras y una maestria en ciencias de computos. en el campo de la inteligencia artificial hay un dicho: "la inteligencia artificial es a la inteligencia, lo que las flores plasticas son a las flores" o sea solo apariencia y nada de sustancia. a lo que llamamos inteligencia artificial a fin de cuentas es solo estadisticas y heuristicos. solo en las peliculas se ve eso de que sean capaces de pensar. si no puedes pensar, no puedes ser racista. todas esas diferencias y el "discrimen" de la inteligencia artificial se debe a optica. si tu piel es mas oscura reflejara menos luz, y eso dificulta que una inteligencia artificial reconozca tu cara. no es racismo. es fisica. literalmente el comportamiento de la luz. has visto esas fotos donde sale alguien con piel bien bien oscura y es de noche y en la foto solo se le ven los dientes? eso tampoco es racismo, es fisica.
No veo racismo intensionado aquí, el mercado se encargará de ajustar las tecnologías. Como bien mencionan las expertas, el resultado de los algoritmos depende de los datos que utlizan para entrenarlos, pues si aún hay problemas en la predicción de estos algoritmos, estos problemas no deben calificarse como "racismo" o "desigualdad", simplemente deben añadir más datos y ajustar las tecnologías. Normalmente me gusta el contenido de este canal, excepto este video. Aunque la información que presentan no es erronea, es notable su sesgo que busca crear controversia y puede despertar odio en ciertos grupos. Parece que quieren hacer ver que hay racismo o desigualdad en estas tecnologías. Pues, puede que actualmente lo haya, como ustedes efectivamente demuestran, pero pienso que NO es intensionado. Unos puntos a considerar sobre las tecnologías: Si las tecnologías fueron desarrolladas, construidas y mayormente consumidas por el "hombre blanco", es obvio que la oferta de las tecnologías se ajuste a las necesidades de la demanda, esto no es racismo, es sólo resultado de la optimización de los productos/servicios hacia donde hay mayor demanda de los mismos. No se puede exigir a los productores/desarrolladores que fabriquen todo cubriendo todos los aspectos desde el día 0, harían a las tecnologías más costosas e inviables. En la medida en que haya una mayor demanda de estos productos/servicios por parte de otras razas, el mercado se encargará de adaptarlos, pues nadie quiere tener predicciones erroneas de sus algoritmos para después tomar desiciones erroneas. Sobre el uso de las tecnologías: Se sabe que las tecnologías pueden usarse para bien o para mal, depende de la democracia que no se violenten nuestras libertades. Por último, estas tecnologías buscan ayudar a tomar desiciones, pero son los humanos finalmente quienes toman las desiciones.
¿Ahora racista la IA? Rayos, si que se ofenden con todo. Solo cambien los criterios ajustados en la configuración de la IA. Y usen el sentido común, usualmente las armas son metálicas y de color oscuro, obvio la IA lo interpretó como un arma.
Está claro que la tecnología aprende del humano. Es importante que aprendamos a mejorar estas fallas. También es importante que antes de sumergernos en el mundo IA se cree un marco legal de uso. No queremos ni gobiernos ni empresaa controladores..que hagan mal uso. Es urgente el marco legal y ético. En búsquedas de empleos, inversores, créditos..etc..hace tiempo que hay discriminación algoritmica...
La IA está creciendo no es racista solo le falta información o corregir la información lo cual llevará un tiempo en perfeccionarse. Yo he trabajado con ia y se demora tiempo en enseñarle cosas o corregir. La IA se va alimentando de información y entre más info más precisa se vuelve.
Los racistas son los que escriben los algoritmos, los blancos. Su interpretación de todo es racista y este problema no acabará hasta que acabe su hegemonía, basada en el racismo.
hombre, el sistema de reconocimiento uyghur habra sido ideado con intenciones cuestionables, pero aun asi, que tengo una efectividad del 70%... es de tener cuidado, puesto que la implementacion de la IA esta en pañales aun...
No realmente... Teniendo expertos en anatomía humana de las diferentes etnias, es correcto pensar que tendría una efectivadad mínima del 50% y máxima de 75-90%.
Las flores son de diferentes colores y todas son bellas. Los seres humanos también somos como ellas. No venimos de un mundo lejano. Nuestra madre es la tierra y nos alimenta a todos no hace diferencia.
Lo de tecnología racista es victimismo total. Lo que más les interesa a los dueños de esas compañías es indexar a cada individuo para ofrecerlo como mercadería, independiente de la raza. Lo que sucede es que la tecnología todavía es imperfecta. Pero yo no se hasta que punto eso pueda ser algo bueno
Sí, ya se esta volviendo muy hostigante, pero también habra gente que quiera usar ese poder o información y hara lo que sea para conseguirla, hay que estar atentos a ambos partes
Curiosamente los nuevos comerciales están haciendo un énfasis exagerado en personas de rasa negra. Para la muestra el nuevo comercial de “ google pixel”
Recordé algo extraño. Cuando yo era niño no podía distinguir un negro de otro. Todos me parecían iguales y cuando era adolescente todos los asiáticos también. Pero ahora ya no me pasa eso
porque cuando eres niño eres tu inteligencia no esta desarrollada, no tienes capacidad de abstracción, además de que no eres consiente del crimen y todo eso. En EEUU pasa mucho, blancos y negros son amigos de pequeños pero al crecer el blanco se da cuenta que con el negro no tiene nada q ver y son muy diferentes y la relacion pierde todo interes
Los algoritmos son neutros, el bien o el mal lo decide el humano que maneja los programas computacionales. Tal vez hace tiempo que entramos en una dictadura tecnológica?
@@JeamLeppard The Coup We Are Not Talking About We can have democracy, or we can have a surveillance society, but we cannot have both. By Shoshana Zuboff Esta autora nos explica parte de la dictadura tecnológica; @manuelabat; El enemigo conoce el sistema por Marta Periano, también en TED@youtube
A mi me da miedo la vigilancia masiva a todos,imagínate acosadores encargados de vigilar a sus futuras víctimas!!!! Atroz!!!!; Ni siquiera se necesita una tiranía para que pase eso mucho 😭😭😭
No entendí la queja. Se quejan de que la inteligencia artificial te identifica si sos negro, blanco, chino , joven o viejo, y si es su trabajo, esas son variables que sirven para resolver casos y todo eso. Si se busca un criminal determinado se programara para buscar ese rostro, pero acá te lo muestran como si se programa los algoritmos de forma subjetiva cosa que no existe en la informática porque todo se hace en base a estadisticas
Creo que el título de este video está errado y está tomando otro tono. La solución de esta situación es sencilla cuando estén haciendo los test deben incluir latinos, asiáticos, afroamericanos, caucásicos y personas procedentes de medio oriente.
El problema es que no hay suficientes como para llenar esos datos, no todos los países son iguales en tipos de personas algunos tienen mas de uno que de otro
@@starvostokcres Exacto y por eso considero que el título está exagerado, para mi es periodismo sensacionalista que busca dividir más a la humanidad para sacar algún beneficio
Auxilio mi lavadora, refrigerador y estufa creo que es machista y mi tele y computadora son sexistas 😱 Bueno fuera de broma todo puede tener una buena explicación el reconocimiento facial es una tecnología que se basa en proporción de nuestra genética sinceramente es solo que profundiza un poco en cuestión de los pocos rasgos distintivos que nuestro rostro pueda tener, en el caso de los chinos rayos DW de verdad creen que si un fugitivo que estuviera en occidente con los rasgos asiáticos (que bien sabe uno que se parecen tal clones) no sería boletinado así o el programa de seguridad tendría cierta preferencia por ese tipo de rostro por qué según es racista!!?? Vaya bobada con lo de la estudiante pues que puedo decir de su computadora, su sistema de reconocimiento facial de la universidad obviamente es deficiente no racista, no es que la máquina pudiera tener juicio alguno. El bot racista de Twitter (página preferida de ofendiditos por cierto) bueno su programa seguro se basaba en imitar a los comentarios más populares que encontrara en la red social, últimamente cualquier loca se dice feminista y comenta semejante estupidez que la gente la termina por apabullar con comentarios críticos o de desprecio por su movimiento como el ejemplo que pusieron!! Y por último si es cierto la gente es racista ( no toda obviamente) pero las máquinas por si solas no, son solo otra extensión de nosotros!!
hay varios tipos de algoritmos de inteligenca artificial, en este caso los programadores no tienen nada que ver ya que el programa escribe su propio algoritmo, lo que le ocurre en este aso es que simplemente a la inteligencia artificial le falta información y que aun no esta terminado.
Y la información que recibe puede ser de estadisticas, por ejemplo si en USA 8 de cada 10 personas arestadas son afroamericanos, entonces obviamente arrestaría a todas las personas que son de ese color de piel, lo único que haría sería generalizar más lo que tenemos
Cierto, este canal esta empezando a parecer algo progresista, ojala no termine cono Discovery o History Chanel hablando de pura conspiración o peor aun, simpaticen con el socialismo.
Uy. Pobrecito. Lo mataron? Meh. No creo. A llorar a otro lado. Yo soy blanco y también me pararon por estar frente a un banco con capucha. Le di mis datos y listo, todos felices todos contentos. Dato: en mi barrio robaban más los N que los B. Tiene mucho sentido que la policía identifique a los N. Hay una estadística en su contra. Saludos
Usan "hombres blancos" Cuando les conviene. Existen también programadoras. Lo que hay que entender es que las cámaras de foto tienen un tipo de focus+filtros de luz automáticos. Si dos personas con piel oscura se sacan una foto, no va a haber problema, si dos blancas lo haces tampoco va a haber problema. El problema surge cuando se sacan la foto los dos. Es como que la máquina no sabe hacer una auto regulación de la luz y tiende a entender más a la cara más nítida con más luz (la blanca). Si hiciera lo contrario no se vería bien. Las cámaras están hechas en su mayoría por asiáticos de piel más clara. Eso de hombres blancos es una idiotez.
Se lo toman exageradamente ofensivo , la verdad es que estos sistemas están para perfeccionarse , y con el tiempo se mejorará los algoritmos es más complicado un nuevo algoritmo que abarque más diversidad ,sobre todo en personas de color la luz se refleja menos así que en sistema no tan complejos y al utilizar un algoritmo más básico es posible que falle y ha pasado con cámaras de seguimiento de rostros , pero es un problema más técnico que social
Si y no. Estos sistemas usan machine learning y con el tiempo la inteligencia artificial podrá ser entrenada a reconocer mejor a personas con diferentes tonos de piel. Sigue siendo interesante el tema
Si la mayor parte de los asesinos seriales son hombres blancos. Y si hay un asesino serial en una ciudad. Deben los hombres blancos quejarse de ser los principales sospechosos? O los hombres de ser sospechosos de asaltos a mano armada y que no se sospeche de las mujeres? Las computadoras verás estadísticas, si la mayoría de quienes hacen algo son de algún grupo y vos sos de ese grupo serás sospechoso, pero se debe demostrar que eres culpable.
IA para identificación de la minoría musulmana Uigur para encarcelarlos y castigarlos en los campos de concentración chinos, la política de reeducación china
En si la inteligencia artifical no es racista todo depende de como haya sido programada sus datos o para que lo quieran usar y si el algoritmo no reconoce al principio el rostro negro cuando fue programado en si por blancos es por que necesita mas datos para poder identificar mejor el rostro y el de los policía es que en zonas especificas en Estados unidos hay más arrestos de negros ,asiáticos,latinos o blancos dependiendo de las zonas y despues usan los datos de los arrestados para mejorar los datos y por desgracias en general usan los datos de las zonas mas peligrosas y en esas zonas hay mas negros o latinos que otras cosas
Muchos pro y muchas contras el Big Data Se va agudizar las diferencias que hoy existen Va a ser difícil acceder a lugares de privilegios porque la inteligencia artificial relaciona color de piel, barrio donde vivís, descendencia y demás...
@@piedramultiaristas8573 Sisi, estaria bueno que cambien las estadisticas nadie dijo que no, yo me baso en la precision de la IA, y no entiendo que tiene que ver "los de arriba" nose de que me hablas, de Jesus? no entiendo quien está por encima tuyo
@@JeamLeppard Creo que lo que debería hacerse es llevar estudio individual de cada persona y si en un cierto tiempo va cambiando de actitud se le califique mejor pero el problema es cuando cae en manos de psicopatas, psicopatas y narcisista un control así tan grande de echo según psicólogos estamos llenos de líderes así porque donde hay control a ellos les gusta estar, porque se puede manipular para hacer ver a alguien o a cierto grupo como malos por eso deberían existir varrios sistemas de evaluación par a minimizar que esto ocurra aunque podría pasar pero repito se podría minimizar
Deberían forzar a las personas oscuras que estudien las ciencias que crean ese tipo de tecnología Y dejen de lloriquear por los inventos de las personas que estudiaron esas ciencias.
Hay y ahora la gente va a hablar del racismo digital, y vamos a decir la maquina me discrimino y los negros van a tener mas pretextos para hablar de racismo.
Pues creo que sutilmente quieren dar ideas, un tanto sesgadas a mi parecer, a las personas que no tienen expertiz en el tema, o simplemente personas sin criterio. Lo que me parece extraño en este canal.
me parece que los algoritmos parten del comportamientos de los grupos raciales, los rasgos Fisicos, sus valores morales, su nivel intelectual, creo que los algoritmos no tratan de corregir ni educar a nadie sensillamente elabora una fotografia de sus habitos para definir un patron.
Muy buen video! Gracias a las investigaciones de Pablo López y Juan Sebastián Gómez suelo ver estos videos tan interesantes y compartirlos con mis amigos, estan muy bien creados y la analitica es impresionante, tocan los temas de mayor interés e impacto ayudando a comprender mucho mejor
Sistemáticamente si, por qué se hace una distinción. Racionalmente no por qué no logra hacer una diferencia racional en base a la razón, sus decisiones se basan en su conocimiento, programación.
Que la IA no logre aún reconocer razgos de otras razas y etnias son problemas técnicos pero no hay que darle connotación racista a todo ésto. La aplicación,si es discriminatoria sí es preocupante como en el caso de China. Pero la tecnología se va ir perfeccionando en su reconocimiento. Es como la arquitectura...no construye pensando en los diversamente hábiles o deshabiles. Poco a poco eso también está cambiando. Sin embargo estamos viendo racismo y Covid por todos lados.
Con esta tecnología van camino a lo que muestra la película de Tom Cruise Sentencia previa (Minority report, 2002), un Estado policial que incluso pretende entrar en la mente de sus ciudadanos para predecir delitos y disidencia. El Estado dictatorial perfecto. Excelente reportaje.
Eso de la prediccion del delito se parece mucho a Minority Report y al sistema de eliminación de amenazas de los helicarrier de Hidra en la película de Capitán América y Winter Soldier.
Creo que es difícil que una IA no termine con ciertos "sesgos" , ya que aunque sea poblada con información 100% objetiva, terminará llegando a ciertas conclusiones no muy correctas políticamente hablando. Por ejemplo podria concluir que países son más violentos que otros en base a tasa de homicidios, o que grupos humanos son más violentos y aunque asociara otros factores, se preguntaría porque las autoridades de ciertos países son más corruptos (siendo muchos de sectores no necesariamente pobres en sus sociedades), así de una forma u otra llegaría a la conclusión que hay países (y personas) de una u otra categoría.
Si a una I.A. se le cargara más de 5 mil años de datos documentados de los seres humanos en todo el mundo el resultado no tendría nada que ver con los estándares éticos de occidente en la actualidad. La justicia y la ética que se promueve en occidente es simplemente más de lo mismo, no se busca un mundo más justo, sino imponer un pensamiento y pisotear aquellas culturas diferentes.
Me pregunto quiénes son las personas que entrevistan como "expertos en el tema" o sólo son voces escogidas que hacen eco al mensaje manipulador que quieren transmitir usando una fachada de información "neutral"?
No es que sea rasista , es que las camas y algunos dispositivos de distancia usan reflecion de inflarojos y estos a veces no refleja bien en cuerpos negros y me ha pasado que algunas pieles negras no refleja en algunos infrarojo baratos. por ejemplo en dispenzadores de liquidos.
@@o.ev.l6621 ¿Eres experto en I.A.? Porque como estudiante de I.A. puedo dar fe de que es cierto. Pero además, sólo se necesita sentido común para darse cuenta de ello: las cámaras tienen muchas dificultades para filmar (o tomar fotos) en condiciones de poca luz. Eso hasta un niño lo ha comprobado usando tan solo su celular. ¿Quieres argumentar que hay cámaras que logran salvar este inconveniente? Pues también te tengo noticias: eso lo logran con VARIAS cámaras DE ÚLTIMA GENERACIÓN muy costosas. Nada que ver con las cámaras económicas de vigilancia.
Hay una pregunta muy simple. Respecto a la identificación racista y sexista del algoritmo de la IA que etnias y que sexo, de cada individuo, considera peligrosos? Porque hablan de racismo y de sexismo, pero aclaran solo lo de racismo, y dan a entender lo de sexismo. Qué chantada.
Se dice que vivimos en un mundo globalizado y "políticamente correcto" Pero por el motivo que sea refleja una cruda realidad, hay mucho discurso de igualdad pero no igualdad
Ah veces lo "politicamente correcto" es solo una hipocrecía o una utopía, ahora le hemos dado a la inteligencia artifical la capacidad de estereotipar como nosotros 🤣
¡Muchas gracias! El mundo marcha tan rápido, en todas las direcciones (excepto la humanista), que a la gente de a pie, como uno, le cuesta entenderlo. Necesitamos pensadores, necesitamos filósofos, para frenar este caballo loco y volver a disfrutar de "vivir". 🇺🇾
Una máquina no tiene consciencia. La palabra discriminar tiene una percepción negativa desde nuestro punto de vista, pero su sinónimos son diferenciar, discernir, distinguir. El algoritmo tiene que ser más lógico.
Esto ya se está pasando de estúpido de verdad que esto ya es extremadamente estúpido, enserio no puedo creer que algo tan ridículo esté pasando... El mundo de verdad se esta llendo a la mierda.
Minuto 0:16 NO, no son racistas, faltan datasets de datos o los datos dicen lo que ha muchos les cuesta mirar, ahora prosigamos con el video a ver con que nos sorprenden ahora Edit 1: tayTweet solo tuits racistas porque aprendia de los usuarios y un grupo de usuario decidio sabotearla, no mintais. Edit 2: tal vez la cuestion seria por que hay mas no-blancos centrados en cardi B y demás tonterias y porque mas blancos creando tecnología. Si en los datasets de imagenes hay mas negros cogiendo un arma que un blanco, la IA dira que por probabilidad si hay una mano negra, eso tendrá que ser un arma. Sonara racista para los bobos, la realidad es que solo hay que ver videoclips de rap/trap y dichos fans en redes sociales junto con las estadisticas de asaltos armados y violentos, para darse cuenta del porque los datasets y la IA dicen lo que a muchos incomoda.
@@eugeR137 tu eres el tipico garrulo que iba diciendo black life matters mientras segun las estadísticas de la casa blanca, mueren mas blancos a manos de los policías, que negros, aun cuando estos causan mas delitos de asalto. Si si, soy muy racista, claro... (soy africano hahahaha). Atentamente un desarrollador de software ;)
Es algo creado por el humano, entonces va con todas las taras sea discriminación y otros; así de simple. Cada vez más cerca el nuevo orden advertido en tantas películas SF y por otro lado dejando entender que en países desarrollados principalmente exista mucha gente anti-tecnologia, etc. Y en los no desarrollados, compran con esfuerzos pero sin pensar las repercusiones. Me encanta DW, me hace recordar mi niñez viendo por TV enlatados de Transtel.
¿RE-EDUCAR A UNA IA? Si poco a poco la IA va acercándose a la "singularidad" (el día que pueda igualarse y luego superarse la inteligencia humana), las IA tendrán también sus propios pensamientos, gustos arbitrarios y hasta sentimientos... ¿y si las IA autónomas del futuro posible sienten o deciden que los negros no son de su gusto? ¿Quién va a poder "re-educar" en forma "inclusiva" e "igualitaria" a una máquina que va a ser superior? Estamos en ese camino. Tan fascinante como aterrador.
@@txavielhumano6541 Mis conocimientos sobre IA es información directa de amigos que trabajan en sistemas informaticos en el CERN, y son matemáticos, físicos teóricos y astrofísicos. Usted no tiene idea de los pasos agigantados con los que avanza el desarrollo en IA. La pobreza supina, como la suya en evidencia, no es mi realidad.
No imagínate, la asociación canina para la equidad en el desarrollo de software e IA debe estar planificando una protesta masiva. En todo este documental no veo que se haya tratado de explicar el proceso de desarrollo de una IA a profundidad y explicar como con el tiempo su desarrollo mejorara.
5:00 "esta tecnología ni siquiera puede relacionar objetos con personas de forma confiable"... pues es que ese es el avance a hoy de "esta tecnología", por eso se trabaja con un porcentaje de confianza. Debe ser considerada una ayuda y no la ultima palabra. Si tenemos una camara de estas en una estación de metro (de EEUU) y salta una alarma por coincidencia cuando identifica a un sospechoso de terrorismo. ¿cual es el paso a seguir?, ¿disparar si preguntar?, no, la idea es que hay un sospechoso. La tecnología solo ofrece una ayuda. No hay que ser tan alarmista y tratar de entender la tecnología y su avance.
Finalmente Una MAQUINA FUNADA
Si jajaj aparte del hombre a alguien tenian que darle
Próximamente funan a Hittler por racista 😠👊
Verga, se cumplió la profesia
8:18 *LEGO*
@@nobodyhuman7947 de hecho en su epoca lo funaron tanto que se mato jsjsjs
Muchas gracias por tan fascinante documental 🤩 ya me estaba empezando a indignar por no encontrar algo de que ofenderme hoy 🤩
Ajajajajajaja
Cuando los terminators nos exterminen solo quedaran los africanos porque el software no los reconocerá.
Y los africanos heredaran la tierra....
@@sergiogalindo6148 😂🤣🤣🤣🤣🤣 no seas mamón
Ofenderse por todo... tipico de esta era 🤗
Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo
Esto ya se veía venir, como el ejemplo que a veces pongo, si escribo en chino, envio audios en chino y hablo con chinos, el algoritmo creera que soy chino, cuando en realidad solo quiero aprender chino
Yo lo hago en portugués, español, inglés y francés. Y el estúpido algoritmo me cree hindú🤣 está drogo el algoritmo
Me pasa lo mismo, estoy aprendiendo ruso y ahora me salta todo el tiempo publicidades de empresas rusas.
@@claptonelyarnorthon4912 Te sorprenderías de cuantos errores así hay en realidad porque crees que hay vídeos de youtube que sin ser permitidos siguen ahí mientras que los que estan en inglés no 🤣
@@sofiaalejandraromero1693 Justo hoy en la mañana entre a un canal de youtube de carros y me salio un anuncio de seguros para carros 🤣
yo hablo en inglés y veo videos en inglés y m siguen apareciendo cosas en español lol
Por fin un video de DW con los comentarios activados... pero no se que decir....uuuh
X2
X3
Q es una tonteria? Una MAQUINA RACISTA? Porque fue construida x blancos? 🖖👽
Jajaja si dio risa el primer ejemplo que dieron jajaja
"Eso es racista...", ya sabes lo siguiente....
Jajaja si, pero igual me rei bien agusto jajaja crei que simplemente la inteligencia artificial no iba a reconocer la mano por ser negra jajaja
Es que ya se acostumbro 🤣
Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo
@@HistoriaenCeluloide concuerdo contigo pero no hagas copy pega en todos los comentarios
Si Pedrito tiene 4 manzanas y Pablito le roba 3, ¿de qué color es Pablito?, este chiste me lo contó Alexa. XD
muy bueno
N X2
Es de color negro
Apuesto que Pablito usa saco, corbata y anda en autos elegantes... y es hijo del dueño de empresa que roba a los amigos de Pedrito.
Pablito es negro.
Porque no se les vigila así a los políticos si estadiscamente son los que mas roban?
No digas tonterias, son ellos mismos quienes los implementan, es totalmente ilógico que lo usen en su contra genio.
por que ellos pagan, con nuestro dinero pero ellos pagan así que ellos mandan.
Porque a ellos y su élite corrupta les sirven éstas herramientas
Porque será ellos quienes lo manejan? Dah
Los políticos solo son el reflejo de la sociedad a la que representan.
La inteligencia artificial solo es una extensión de lo que pensamos, no es intencional. Pero revela quienes somos realmente
AL FIN ALGUIEN LO DIJO
Asi no funciona una red neuronal, es algo mas primitivo que lo que te imaginas, al ultimo son las mismas bases de calculo que te enseñaron en la escuela, no es tan moderno como crees y muchas cosas han sido usadas en ingenieria por decadas. La diferencia es que aun estamos en pañales, hay muchas cosas que son nuevas pero no se han utilizado comercialmente para emcontrarle fallas. Por eso debe de probarse muy bien por que a una red neuronal la entrenas con datos y si estos estan mal la red neuronal va tener muchas fallas, lo del color de piel es por falta de datos y por que ciertas arquitecturas de redes neuronales son muy malas para detectar formas, estas son mejores para texturas..
What y esa "extensión" como se programa ?
Juajuaju
@@gersonp4606 usando el cerebro y entender lo que se quizo decir
Jsjjajajaj una pistola. C mamó
Solución, eliminar la parabra gun
Lo mas gracioso esque cuando pintaron la mano la pintaron con Paint y el adgoritmo haaa es un Ario entonces son unos prismáticos.
Jaja xd
Era obvio
La mayoría de asaltos a mano armada don por negros
La IA solo usa matematicas eficientes
Cuando una mano negra agarra un objeto con esas características lo más común es que sea una pistola, no es culpa de la inteligencia artificial.
Ya entiendo porque casi siempre bloquean los comentarios, probablemente no les gusta que se burlen de ellos cada que dicen una tontería
XDDDD
Jajajajaj de verdad piensas que la credibilidad de una periodística alemana depende de la opinión cómica de "microcraft cienciólogo". Tan siquiera ¿entiendes todo el contexto racista, sociológico, e incluso tu que eres latino , el como te puede afectar esto?
sinceramente este reportaje me parece un absurdo de manipulación, ¿cuantas veces no se ha equivocado al revés de relacionar la mano blanca con la pistola y la negra con otra cosa? ¿una tipa tenía problemas con UN software de reconocimiento cuando hay cientos de otros software dando vueltas en redes sociales como el que te cambiaba de sexo en facebook y funciona perfectamente con cualquier tipo de piel? que el problema son las camaras hechas por "HOMBRES BLANCOS" (solo les faltó decir heterosexuales) cuando hay un montón de modelos y actores negros que se ven espectaculares a través de las camáras, no sé si esa señora conocerá las cámaras de los últimso 2 siglos pero no se diseñan para que los "hombres blancos" se vean bien, se diseñan pensando en captar con la mayor fidelidad el mayor espectro de colores posibles y con variedad de condiciones de luz... solomente agarraron un montón de sucesos puntuales y quieren hacerlos pasar como algo sistemático.
bien
El análisis más estúpido que he leído hoy
@@jonatanmercadocortegana5496 análisis de quién?
@Dhemmlerf Esta hablando del espectro de luz infrarrojo una falla en el sensor que llaman camara debido a que solo detecta la luz infraroja reflejada por la piel blanca no es una camara con amplio espectro ._. y sí es un caso partícular que seguramente este ya solucionado
basado
Tremendamente interesante el reportaje 👌 damos por sentado que los sistemas funcionarán bien, pero depende mucho de cómo se diseñen
"El hombre blanco" creo que el reportaje también es discriminatorio.
No me gusta la censura en los comentarios de DW.
¿ Como te das cuenta que hay censura en los comentarios ❓ supuestamente DW está en contra . Bueno eso siempre creí.
Y no haz pensado que quizá quien borra los comentarios es youtube
Son peores que los de RT
En algunos videos no dejan poner comentarios.
*Me censuran mi comentario racista/homofóbico*
Los racistas/homofóbicos: “P1ncHES medios, d0nde está mi l1bertAd de Expresión??”
Eso no es racismo, es un algoritmo mal entrenado, con una solución simple, hablar que el hombre blanco tiene la culpa es racista, si en tu país casi no existe población de otra etnia, es seguro que la entrenadas para las mayorías. Las mayorías siempre van a tener la ventaja es algo democrático y casi biológico
africanos,musulmanes y otras etnias migran masivamente actualmente a europa y desde siempre a usa asi que pues si bien quiza ahora se encuentren mas blancos que negros eso puede ser muy diferente en unos años con una europa cuya poblacion autoctona esta cada vez mas envejecida
@@kkkaaa5967 Sí, pero no todos estan en domde se brindan los filtros ni menos quierem brindar sus datos, tienen más detalles que eso añadiendo que en ciertos lugares es casi imposible encontrarlos que en otros, los lugares son variables incluso dentro de un mismo país
Ahhh, basado en la tirania de las mayorías, de la gran masa "culta" jaa
Correcto
Mi comentario va más en relación que se exagera con el término racismo, osea tengo un gato blanco y ya soy racista. Los algoritmos de IA no son perfectos y tienden a confundirse siempre, y si están más entrenados van a tener un sesgo hacia un lado... Es cosa de trabajar y entrenarlo mejor, con fotos parecidas de un plátano dependiendo de la luz puede decir que es una pistola 😅, es muy común... pero no es racista por qué el plátano sea amarillo o café...😅, Es cosa de hablar con un asistente de voz y vas a ver que no te entiende bien 😂, "quiero una tasa" a "quiere una papa" no una tasa, así una rana...😅
Entonces todos tenemos que ser como robots? Todos las personas iguales de color altura cabello? No podemos pensar discernir tener diferencias? O como? Claro que debe de haber diferencia todos somos diferentes afortunadamente
quien dijo eso? supongo que le estabas respondiendo a alguien que borro su comentario sino no tiene el menor sentido porque nadie esta hablando de eso
Es increíble como malinterpretas todo el video
Yo lo que entiendo es que te refieres a que hablar de diferencias anatomicas y culturales, que definitivamente existen, ahora es considerado racismo, si es eso opino como tu, no se por que no se puede decir que alguien tiene rasgos orientales, otro europeo y alguien mas de nativo americano....ya nada es "politicamente correcto", tenemos que hacer de cuenta que no existen diferencias....que tonteria
En un futuro tener el color de piel más oscura será la onda ya que no te pueden leer 😂
Me fascina como Lee y presenta Juan Sebastian Gómez. Lo admiro y es mi ídolo a seguir
¿Policía predictiva? 🤔 Me recuerda esa película protagonizada por Tom Cruise, "Minority Report". ¿Syfy??? 😱
Estaba pensando lo mismo e iba a comentar pero estaba tu comentario,
Que buena pelicula..
Cieeeerto!
Justo hace dos días me recomendaron esa peli
cierto, es lo mismo
El problema es que nos cuesta aceptar que la inteligencia artificial no es "polìticamente correcta", no es emocional sino sencillamente objetiva, hemos manipulado la información de manera a que nos haga sentir más cómodos, y ahora queremos manipular la inteligencia artificial .Yuval Harari nos advierte que en poco la inteligencia artificial comenzará a programarse a sí misma... y no esperemos que sea emocional, será simplemente objetiva. Y por lo tanto tremendamente injusta para los parámetros humanos.
al contrario, será justa, y ese es el problema que cada uno tendra lo que se merece
Estás equivocado. La IA artificial procesa datos millones de veces más rápido que un humano y a pesar de eso puede estar en un error. Por ejemplo hay casos en dónde la IA no puede notar la diferencia entre unas dunas de desierto y un par de tetas. Y tener una inteligencia artificial que decida sobre temas de derechos o facilitarle la vida a una persona por ser blanca y que al negro lo aparte, eso es una mierda. Prácticamente te sentencia el día que naciste.
@@franklin4dedos la AI se programa en base a estadisticas no en base a sesgos subjetivos.
@@lucaswsvs117 Pero la estadística con la que se alimenta la IA sí puede estar sesgada. Si se le alimenta con datos falsos, muestreos mal hechos, etc., el resultado también será sesgado.
Objetivo no es injusto. La IA no es objetiva porque procede de unos humanos que en general son racistas.
Básicamente si nuestra creación incluye nuestras convicciones, entonces va a se igual que nosotros los humanos
es un programa informatico de 1 y 0 por mas inteligencia artificial que le digan que es, NO TIENEN COCEPCION DE VIDA, mucho menos de racismo. a lo mucho son errores en el codigo
pero no racismo por dios
La ia no da opiniones, se basa en estadistica, algoritmos
@@cronosmartinez1072 vos has estudiado programación o inteligencia artificial?
Es difícil limitar cualquier tipo de inteligencia, incluso podría ser imposible. tarde o temprano una iA convergerá o "colapsara" en desarrollar una discriminazion igual a la que tendría nuestra concepción de Dios, básicamente un ser ultra conciente que solo pone las manos para que no caigan las cosas de una mesa, con nula intervención. Pero claro antes de que eso ocurra puede "colapsar" en algo que tire cosas de la mesa.
@@bryamvargas1371
yo si he estudiado ambas cosas.
poseo un bachillerato en ingenieria de computadoras y una maestria en ciencias de computos.
en el campo de la inteligencia artificial hay un dicho:
"la inteligencia artificial es a la inteligencia, lo que las flores plasticas son a las flores"
o sea solo apariencia y nada de sustancia.
a lo que llamamos inteligencia artificial a fin de cuentas es solo estadisticas y heuristicos.
solo en las peliculas se ve eso de que sean capaces de pensar.
si no puedes pensar, no puedes ser racista.
todas esas diferencias y el "discrimen" de la inteligencia artificial se debe a optica. si tu piel es mas oscura reflejara menos luz, y eso dificulta que una inteligencia artificial reconozca tu cara.
no es racismo. es fisica. literalmente el comportamiento de la luz.
has visto esas fotos donde sale alguien con piel bien bien oscura y es de noche y en la foto solo se le ven los dientes?
eso tampoco es racismo, es fisica.
La IA no discrimina porque no tiene consciencia ni razona, tampoco tiene mente ni siente sensaciones, ni emociones, ni sentimientos!!!
No veo racismo intensionado aquí, el mercado se encargará de ajustar las tecnologías.
Como bien mencionan las expertas, el resultado de los algoritmos depende de los datos que utlizan para entrenarlos, pues si aún hay problemas en la predicción de estos algoritmos, estos problemas no deben calificarse como "racismo" o "desigualdad", simplemente deben añadir más datos y ajustar las tecnologías.
Normalmente me gusta el contenido de este canal, excepto este video. Aunque la información que presentan no es erronea, es notable su sesgo que busca crear controversia y puede despertar odio en ciertos grupos. Parece que quieren hacer ver que hay racismo o desigualdad en estas tecnologías. Pues, puede que actualmente lo haya, como ustedes efectivamente demuestran, pero pienso que NO es intensionado.
Unos puntos a considerar sobre las tecnologías:
Si las tecnologías fueron desarrolladas, construidas y mayormente consumidas por el "hombre blanco", es obvio que la oferta de las tecnologías se ajuste a las necesidades de la demanda, esto no es racismo, es sólo resultado de la optimización de los productos/servicios hacia donde hay mayor demanda de los mismos. No se puede exigir a los productores/desarrolladores que fabriquen todo cubriendo todos los aspectos desde el día 0, harían a las tecnologías más costosas e inviables. En la medida en que haya una mayor demanda de estos productos/servicios por parte de otras razas, el mercado se encargará de adaptarlos, pues nadie quiere tener predicciones erroneas de sus algoritmos para después tomar desiciones erroneas.
Sobre el uso de las tecnologías:
Se sabe que las tecnologías pueden usarse para bien o para mal, depende de la democracia que no se violenten nuestras libertades.
Por último, estas tecnologías buscan ayudar a tomar desiciones, pero son los humanos finalmente quienes toman las desiciones.
Todo es racista hasta la luz por que es clara🤦🏻♀️
Hay que empezar a comprar luces negras para poder ver en la oscuridad a los negros xD
@@JeamLeppard 😂
@アーシュラ・カリスティス y yo azul. Te vas a ofender? Yo soy mas minoria que vos, solo existimos los Blue Man Group y yo
@@JeamLeppard yo me autopercibo de color platino con incrustaciones de diamantes brillosos y eso es aun más racista para mi, jake mate
@@unusuariocongoogles ahh sos de la alta sociedad vos, seguro vivis bien, yo tengo que buscar que ropa combina con mi azul cobalto :(
¿Ahora racista la IA? Rayos, si que se ofenden con todo. Solo cambien los criterios ajustados en la configuración de la IA. Y usen el sentido común, usualmente las armas son metálicas y de color oscuro, obvio la IA lo interpretó como un arma.
Está claro que la tecnología aprende del humano. Es importante que aprendamos a mejorar estas fallas. También es importante que antes de sumergernos en el mundo IA se cree un marco legal de uso. No queremos ni gobiernos ni empresaa controladores..que hagan mal uso. Es urgente el marco legal y ético. En búsquedas de empleos, inversores, créditos..etc..hace tiempo que hay discriminación algoritmica...
La IA está creciendo no es racista solo le falta información o corregir la información lo cual llevará un tiempo en perfeccionarse. Yo he trabajado con ia y se demora tiempo en enseñarle cosas o corregir. La IA se va alimentando de información y entre más info más precisa se vuelve.
De hecho desde mi punto de vista, siendo racista la AI emula casi en un 100% a un humano real...Mis aplausos a los cientificos!
@@martasosa5973 ciertamente es natural discrimar quizás no correcto en los criterios ahí hay una distorsión.
Los racistas son los que escriben los algoritmos, los blancos. Su interpretación de todo es racista y este problema no acabará hasta que acabe su hegemonía, basada en el racismo.
Excelente este vídeo de la lista de reproducción TECNOLOGÍA Y MUNDO DIGITAL del Canal DW
A ver cuando sacan los algoritmos para reconocimiento de gays, lesbianas y travestis. Esto se pone bueno.
Apuesto que diran que como no sabe indentificarlos, "fue construido por un hombre heterosexual"
hombre, el sistema de reconocimiento uyghur habra sido ideado con intenciones cuestionables, pero aun asi, que tengo una efectividad del 70%... es de tener cuidado, puesto que la implementacion de la IA esta en pañales aun...
No realmente... Teniendo expertos en anatomía humana de las diferentes etnias, es correcto pensar que tendría una efectivadad mínima del 50% y máxima de 75-90%.
casi cerca del Psycho pass
con el microship entre el pasaporte
Las flores son de diferentes colores y todas son bellas. Los seres humanos también somos como ellas. No venimos de un mundo lejano. Nuestra madre es la tierra y nos alimenta a todos no hace diferencia.
Lo de tecnología racista es victimismo total. Lo que más les interesa a los dueños de esas compañías es indexar a cada individuo para ofrecerlo como mercadería, independiente de la raza. Lo que sucede es que la tecnología todavía es imperfecta. Pero yo no se hasta que punto eso pueda ser algo bueno
Sí, ya se esta volviendo muy hostigante, pero también habra gente que quiera usar ese poder o información y hara lo que sea para conseguirla, hay que estar atentos a ambos partes
Curiosamente los nuevos comerciales están haciendo un énfasis exagerado en personas de rasa negra. Para la muestra el nuevo comercial de “ google pixel”
Comerciales películas series todo
Recordé algo extraño. Cuando yo era niño no podía distinguir un negro de otro. Todos me parecían iguales y cuando era adolescente todos los asiáticos también. Pero ahora ya no me pasa eso
porque cuando eres niño eres tu inteligencia no esta desarrollada, no tienes capacidad de abstracción, además de que no eres consiente del crimen y todo eso. En EEUU pasa mucho, blancos y negros son amigos de pequeños pero al crecer el blanco se da cuenta que con el negro no tiene nada q ver y son muy diferentes y la relacion pierde todo interes
Los algoritmos son neutros, el bien o el mal lo decide el humano que maneja los programas computacionales. Tal vez hace tiempo que entramos en una dictadura tecnológica?
Porque dictadura tecnologica?
@@JeamLeppard The Coup We Are Not Talking About
We can have democracy, or we can have a surveillance society, but we cannot have both.
By Shoshana Zuboff
Esta autora nos explica parte de la dictadura tecnológica; @manuelabat; El enemigo conoce el sistema por Marta Periano, también en TED@youtube
A mi me da miedo la vigilancia masiva a todos,imagínate acosadores encargados de vigilar a sus futuras víctimas!!!! Atroz!!!!; Ni siquiera se necesita una tiranía para que pase eso mucho 😭😭😭
No entendí la queja. Se quejan de que la inteligencia artificial te identifica si sos negro, blanco, chino , joven o viejo, y si es su trabajo, esas son variables que sirven para resolver casos y todo eso. Si se busca un criminal determinado se programara para buscar ese rostro, pero acá te lo muestran como si se programa los algoritmos de forma subjetiva cosa que no existe en la informática porque todo se hace en base a estadisticas
se quejan de la realidad
Aquí desde Colombia, exelente programa
Nesgro es negreo y blanco es blanco para una computadora, a ella s no se les puede programar sentimientos
Creo que el título de este video está errado y está tomando otro tono. La solución de esta situación es sencilla cuando estén haciendo los test deben incluir latinos, asiáticos, afroamericanos, caucásicos y personas procedentes de medio oriente.
El problema es que no hay suficientes como para llenar esos datos, no todos los países son iguales en tipos de personas algunos tienen mas de uno que de otro
@@starvostokcres Exacto y por eso considero que el título está exagerado, para mi es periodismo sensacionalista que busca dividir más a la humanidad para sacar algún beneficio
Auxilio mi lavadora, refrigerador y estufa creo que es machista y mi tele y computadora son sexistas 😱
Bueno fuera de broma todo puede tener una buena explicación el reconocimiento facial es una tecnología que se basa en proporción de nuestra genética sinceramente es solo que profundiza un poco en cuestión de los pocos rasgos distintivos que nuestro rostro pueda tener, en el caso de los chinos rayos DW de verdad creen que si un fugitivo que estuviera en occidente con los rasgos asiáticos (que bien sabe uno que se parecen tal clones) no sería boletinado así o el programa de seguridad tendría cierta preferencia por ese tipo de rostro por qué según es racista!!?? Vaya bobada con lo de la estudiante pues que puedo decir de su computadora, su sistema de reconocimiento facial de la universidad obviamente es deficiente no racista, no es que la máquina pudiera tener juicio alguno.
El bot racista de Twitter (página preferida de ofendiditos por cierto) bueno su programa seguro se basaba en imitar a los comentarios más populares que encontrara en la red social, últimamente cualquier loca se dice feminista y comenta semejante estupidez que la gente la termina por apabullar con comentarios críticos o de desprecio por su movimiento como el ejemplo que pusieron!!
Y por último si es cierto la gente es racista ( no toda obviamente) pero las máquinas por si solas no, son solo otra extensión de nosotros!!
hay varios tipos de algoritmos de inteligenca artificial, en este caso los programadores no tienen nada que ver ya que el programa escribe su propio algoritmo, lo que le ocurre en este aso es que simplemente a la inteligencia artificial le falta información y que aun no esta terminado.
Y la información que recibe puede ser de estadisticas, por ejemplo si en USA 8 de cada 10 personas arestadas son afroamericanos, entonces obviamente arrestaría a todas las personas que son de ese color de piel, lo único que haría sería generalizar más lo que tenemos
Cierto, este canal esta empezando a parecer algo progresista, ojala no termine cono Discovery o History Chanel hablando de pura conspiración o peor aun, simpaticen con el socialismo.
@@bkjgvjggh7654 osea si dicen lo que no te gusta, son socialistas. Vaya razonamiento tenemos 🤦🤦🤦
Erradicar el racismo es tan imposible como querer erradicar el negocio del narcotráfico.
En México: Persona blanca corre, tiene prisa.
Persona morena corre, se acaba de robar algo.
Y termina siendo cierto :v
@@charlycharly933 de hecho pararon a un amigo por eso :(
Uy. Pobrecito. Lo mataron? Meh. No creo. A llorar a otro lado. Yo soy blanco y también me pararon por estar frente a un banco con capucha. Le di mis datos y listo, todos felices todos contentos. Dato: en mi barrio robaban más los N que los B. Tiene mucho sentido que la policía identifique a los N. Hay una estadística en su contra. Saludos
@@charlycharly933 yo soy caucasico y no vivo en una burbuja como tu.
@travis Rm si los policías son de color cartón caca y tienen tatuajes jajaja. En qué mundo viven ustedes?
Usan "hombres blancos" Cuando les conviene. Existen también programadoras. Lo que hay que entender es que las cámaras de foto tienen un tipo de focus+filtros de luz automáticos. Si dos personas con piel oscura se sacan una foto, no va a haber problema, si dos blancas lo haces tampoco va a haber problema. El problema surge cuando se sacan la foto los dos. Es como que la máquina no sabe hacer una auto regulación de la luz y tiende a entender más a la cara más nítida con más luz (la blanca). Si hiciera lo contrario no se vería bien. Las cámaras están hechas en su mayoría por asiáticos de piel más clara. Eso de hombres blancos es una idiotez.
Un 70% de precisión es un avance muy grande, en especial en una etnia muy semejante.
Se lo toman exageradamente ofensivo , la verdad es que estos sistemas están para perfeccionarse , y con el tiempo se mejorará los algoritmos es más complicado un nuevo algoritmo que abarque más diversidad ,sobre todo en personas de color la luz se refleja menos así que en sistema no tan complejos y al utilizar un algoritmo más básico es posible que falle y ha pasado con cámaras de seguimiento de rostros , pero es un problema más técnico que social
La culpa no es del software, esta echo por las personas intencionalmente
Si y no. Estos sistemas usan machine learning y con el tiempo la inteligencia artificial podrá ser entrenada a reconocer mejor a personas con diferentes tonos de piel. Sigue siendo interesante el tema
Como dijo Joaquín, son parámetros que deben irse afinando, pero se puede lograe
Si la mayor parte de los asesinos seriales son hombres blancos. Y si hay un asesino serial en una ciudad. Deben los hombres blancos quejarse de ser los principales sospechosos?
O los hombres de ser sospechosos de asaltos a mano armada y que no se sospeche de las mujeres?
Las computadoras verás estadísticas, si la mayoría de quienes hacen algo son de algún grupo y vos sos de ese grupo serás sospechoso, pero se debe demostrar que eres culpable.
Anglosajon más que todo
Pues no la usemos
No es discriminatorio, es sólo actualizar las informaciones. De todo quieren hacer un tema racista donde no lo hay
Totalmente, las máquinas solo recopilan datos y en con base en eso toman decisiones...
Que sesgado tu comentario...
IA para identificación de la minoría musulmana Uigur para encarcelarlos y castigarlos en los campos de concentración chinos, la política de reeducación china
En si la inteligencia artifical no es racista todo depende de como haya sido programada sus datos o para que lo quieran usar y si el algoritmo no reconoce al principio el rostro negro cuando fue programado en si por blancos es por que necesita mas datos para poder identificar mejor el rostro y el de los policía es que en zonas especificas en Estados unidos hay más arrestos de negros ,asiáticos,latinos o blancos dependiendo de las zonas y despues usan los datos de los arrestados para mejorar los datos y por desgracias en general usan los datos de las zonas mas peligrosas y en esas zonas hay mas negros o latinos que otras cosas
Muchos pro y muchas contras el Big Data
Se va agudizar las diferencias que hoy existen
Va a ser difícil acceder a lugares de privilegios porque la inteligencia artificial relaciona color de piel, barrio donde vivís, descendencia y demás...
Algo que estadisticamente es correcto, solo que los progres creen que las estadisticas no sirven
@@JeamLeppard No crees que hay que hacer algo para cambiar la estadística? Y ver que hacen los de arriba que roban mas estadísticamente también?
@@piedramultiaristas8573 Sisi, estaria bueno que cambien las estadisticas nadie dijo que no, yo me baso en la precision de la IA, y no entiendo que tiene que ver "los de arriba" nose de que me hablas, de Jesus? no entiendo quien está por encima tuyo
@@JeamLeppard Con los de arriba me refiero a la clase alta mas bien a los corruptos sobre todo los políticos
@@JeamLeppard Creo que lo que debería hacerse es llevar estudio individual de cada persona y si en un cierto tiempo va cambiando de actitud se le califique mejor pero el problema es cuando cae en manos de psicopatas, psicopatas y narcisista un control así tan grande de echo según psicólogos estamos llenos de líderes así porque donde hay control a ellos les gusta estar, porque se puede manipular para hacer ver a alguien o a cierto grupo como malos por eso deberían existir varrios sistemas de evaluación par a minimizar que esto ocurra aunque podría pasar pero repito se podría minimizar
Deberían forzar a las personas oscuras que estudien las ciencias que crean ese tipo de tecnología Y dejen de lloriquear por los inventos de las personas que estudiaron esas ciencias.
Esto es lo que pasa cuando no se hace bien el proceso de Machine Learning
Hay y ahora la gente va a hablar del racismo digital, y vamos a decir la maquina me discrimino y los negros van a tener mas pretextos para hablar de racismo.
Que bueno, breve, excelente e inquietante análisis
Lo extraño es porque los medios le dan cabida a que se traten temas estupidos, simplemente se debria ser indiferente con temas banales.
Pues creo que sutilmente quieren dar ideas, un tanto sesgadas a mi parecer, a las personas que no tienen expertiz en el tema, o simplemente personas sin criterio. Lo que me parece extraño en este canal.
No hay discriminación. Solamente es el resultado de que la ciencia y la tecnología es mayoritariamente desarrollada por personas de raza blanca.
me parece que los algoritmos parten del comportamientos de los grupos raciales, los rasgos Fisicos, sus valores morales, su nivel intelectual, creo que los algoritmos no tratan de corregir ni educar a nadie sensillamente elabora una fotografia de sus habitos para definir un patron.
Ellos lo ven como una desventaja, pero para mi es una ventaja, pueden robar y el algoritmo no se detecta y no podran reconocer :v
😂😂 Lo mismo pensé.
Si son invisibles para la rebelión de las máquinas y ellos pueden derotar las máquinas y las máquinas no vieron lo que los derotaron
el ser humano todavia no esta preparado para crear un IA. todavia estamos en fase de preevolucion.
o todavía no se ha terminado de perfeccionar las inteligencias artificiales
Muy buen video! Gracias a las investigaciones de Pablo López y Juan Sebastián Gómez suelo ver estos videos tan interesantes y compartirlos con mis amigos, estan muy bien creados y la analitica es impresionante, tocan los temas de mayor interés e impacto ayudando a comprender mucho mejor
Sistemáticamente si, por qué se hace una distinción. Racionalmente no por qué no logra hacer una diferencia racional en base a la razón, sus decisiones se basan en su conocimiento, programación.
Nada de racismo, solo es un problema técnico fácil de solucionar, se hacen bolas por nada.
entonces por que no se soluciona si es tan facil?
Que la IA no logre aún reconocer razgos de otras razas y etnias son problemas técnicos pero no hay que darle connotación racista a todo ésto. La aplicación,si es discriminatoria sí es preocupante como en el caso de China. Pero la tecnología se va ir perfeccionando en su reconocimiento.
Es como la arquitectura...no construye pensando en los diversamente hábiles o deshabiles. Poco a poco eso también está cambiando. Sin embargo estamos viendo racismo y Covid por todos lados.
Con esta tecnología van camino a lo que muestra la película de Tom Cruise Sentencia previa (Minority report, 2002), un Estado policial que incluso pretende entrar en la mente de sus ciudadanos para predecir delitos y disidencia. El Estado dictatorial perfecto. Excelente reportaje.
Las estadísticas hablan por sí solas
El lado positivo es que así no te pueden controlar pasando desapercibido por las calles llenas de cámaras.
Reconocer a los chinos, la mayoría se ven iguales, es increible pensar que no són una cultura tan homogenea como pensamos.
Eso de la prediccion del delito se parece mucho a Minority Report y al sistema de eliminación de amenazas de los helicarrier de Hidra en la película de Capitán América y Winter Soldier.
Tengo que ver esa película de tom cruise 👍.
Creo que es difícil que una IA no termine con ciertos "sesgos" , ya que aunque sea poblada con información 100% objetiva, terminará llegando a ciertas conclusiones no muy correctas políticamente hablando.
Por ejemplo podria concluir que países son más violentos que otros en base a tasa de homicidios, o que grupos humanos son más violentos y aunque asociara otros factores, se preguntaría porque las autoridades de ciertos países son más corruptos (siendo muchos de sectores no necesariamente pobres en sus sociedades), así de una forma u otra llegaría a la conclusión que hay países (y personas) de una u otra categoría.
Que fabriquen robots arco iris 🌈
Y ya está
👍 👍 👍 👍 👍 ❤
Gente verde
No los puede espiar porque son intetables
Gracias por la matéria. Excelente como siempre
Como cuando ni la propia tecnología te quiere.😂😂😂
El comentario más estúpido.
@@ele.1807 cierto
@@ele.1807 escucha sub-desarrollado me avisas cuando aprendas discernir lo que es comentario "SARCÁSTICO ".
@@stevencollins7186 Métete tu sarcasmo indolente por el kul0
@@ele.1807 No llores 😭😭
Si a una I.A. se le cargara más de 5 mil años de datos documentados de los seres humanos en todo el mundo el resultado no tendría nada que ver con los estándares éticos de occidente en la actualidad. La justicia y la ética que se promueve en occidente es simplemente más de lo mismo, no se busca un mundo más justo, sino imponer un pensamiento y pisotear aquellas culturas diferentes.
Me pregunto quiénes son las personas que entrevistan como "expertos en el tema" o sólo son voces escogidas que hacen eco al mensaje manipulador que quieren transmitir usando una fachada de información "neutral"?
Muy interesante el tema. La tecnologia no puede convertirse en atizador de odios y discriminacion.
Saludos desde Lima Perú
Pais bananero
haa... ya ve que has venido a probar nuestras bananas...
@@chuckschuldiner6287 lo dice un mexicano jaja
@@Xoandrex95oX No tardan en llegar los xenófobos...
CHUCK SCHULDINER. Mindundi, ceporro, estulto, etc.
Yo pienso que se alimenta de como es la sociedad y los comentarios tan bellos q hay
Frenologia digital?!
Estamos retrocediendo en lugar de avanzar?
Cierto 🤣🤣🤣🤣🤣
Ahora la intrligencia artificial es rasista? Un mundo desocupado y sin proposito en la vida.
mirate el video primero genio
@@kkkaaa5967 no sabia que tenia que pedirte permiso para opinar, aca kaka es mierda, por eso haces honor a tu nombre.
No es que sea rasista , es que las camas y algunos dispositivos de distancia usan reflecion de inflarojos y estos a veces no refleja bien en cuerpos negros y me ha pasado que algunas pieles negras no refleja en algunos infrarojo baratos. por ejemplo en dispenzadores de liquidos.
wow no sabia
Mentira.
@@o.ev.l6621 ¿Eres experto en I.A.? Porque como estudiante de I.A. puedo dar fe de que es cierto. Pero además, sólo se necesita sentido común para darse cuenta de ello: las cámaras tienen muchas dificultades para filmar (o tomar fotos) en condiciones de poca luz. Eso hasta un niño lo ha comprobado usando tan solo su celular.
¿Quieres argumentar que hay cámaras que logran salvar este inconveniente? Pues también te tengo noticias: eso lo logran con VARIAS cámaras DE ÚLTIMA GENERACIÓN muy costosas. Nada que ver con las cámaras económicas de vigilancia.
Hay una pregunta muy simple. Respecto a la identificación racista y sexista del algoritmo de la IA que etnias y que sexo, de cada individuo, considera peligrosos? Porque hablan de racismo y de sexismo, pero aclaran solo lo de racismo, y dan a entender lo de sexismo. Qué chantada.
Según los principios de la IA eso no debería pasar, o al menos eso es lo que he leído en microsoft
Es que se deja llevar por costumbres humanas estereotipadas, añadiendo de que los memes los puede reconocer como verdad absoluta 🤣
Y le crees a la empresa de microsofot¿cuantos años tienes?
Se dice que vivimos en un mundo globalizado y "políticamente correcto"
Pero por el motivo que sea refleja una cruda realidad, hay mucho discurso de igualdad pero no igualdad
Ah veces lo "politicamente correcto" es solo una hipocrecía o una utopía, ahora le hemos dado a la inteligencia artifical la capacidad de estereotipar como nosotros 🤣
Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo
El lenguaje es simbólico. El mensaje está entre líneas. Conservadores enojados por cosas imaginarias otra vez
@@jonatanmercadocortegana5496típico, tomar a todos como conservadores
No es racista se basa en echos y estadisticas.
¡Muchas gracias!
El mundo marcha tan rápido, en todas las direcciones (excepto la humanista), que a la gente de a pie, como uno, le cuesta entenderlo. Necesitamos pensadores, necesitamos filósofos, para frenar este caballo loco y volver a disfrutar de "vivir". 🇺🇾
Una máquina no tiene consciencia. La palabra discriminar tiene una percepción negativa desde nuestro punto de vista, pero su sinónimos son diferenciar, discernir, distinguir. El algoritmo tiene que ser más lógico.
Tay no se volvió sexista, racista y clasista 🤨 solo se volvió una twittera promedio 🤣
jajajajaja xd
XDDD
Incluso se lee como le tira hate a las feministas jajajaj
Esto ya se está pasando de estúpido de verdad que esto ya es extremadamente estúpido, enserio no puedo creer que algo tan ridículo esté pasando... El mundo de verdad se esta llendo a la mierda.
@Dhemmlerf muy identificado con tu comentario
Minuto 0:16 NO, no son racistas, faltan datasets de datos o los datos dicen lo que ha muchos les cuesta mirar, ahora prosigamos con el video a ver con que nos sorprenden ahora
Edit 1: tayTweet solo tuits racistas porque aprendia de los usuarios y un grupo de usuario decidio sabotearla, no mintais.
Edit 2: tal vez la cuestion seria por que hay mas no-blancos centrados en cardi B y demás tonterias y porque mas blancos creando tecnología. Si en los datasets de imagenes hay mas negros cogiendo un arma que un blanco, la IA dira que por probabilidad si hay una mano negra, eso tendrá que ser un arma. Sonara racista para los bobos, la realidad es que solo hay que ver videoclips de rap/trap y dichos fans en redes sociales junto con las estadisticas de asaltos armados y violentos, para darse cuenta del porque los datasets y la IA dicen lo que a muchos incomoda.
@@eugeR137 tu eres el tipico garrulo que iba diciendo black life matters mientras segun las estadísticas de la casa blanca, mueren mas blancos a manos de los policías, que negros, aun cuando estos causan mas delitos de asalto.
Si si, soy muy racista, claro... (soy africano hahahaha).
Atentamente un desarrollador de software ;)
Muy buen presentador. Muy profesional.
Es algo creado por el humano, entonces va con todas las taras sea discriminación y otros; así de simple.
Cada vez más cerca el nuevo orden advertido en tantas películas SF y por otro lado dejando entender que en países desarrollados principalmente exista mucha gente anti-tecnologia, etc. Y en los no desarrollados, compran con esfuerzos pero sin pensar las repercusiones.
Me encanta DW, me hace recordar mi niñez viendo por TV enlatados de Transtel.
¿RE-EDUCAR A UNA IA?
Si poco a poco la IA va acercándose a la "singularidad" (el día que pueda igualarse y luego superarse la inteligencia humana), las IA tendrán también sus propios pensamientos, gustos arbitrarios y hasta sentimientos... ¿y si las IA autónomas del futuro posible sienten o deciden que los negros no son de su gusto? ¿Quién va a poder "re-educar" en forma "inclusiva" e "igualitaria" a una máquina que va a ser superior? Estamos en ese camino. Tan fascinante como aterrador.
Con ese comentario se sabe q tus conocimientos de IA son de películas y no de la realidad, hacete un curso en youtube y luego opina
@@txavielhumano6541 Mis conocimientos sobre IA es información directa de amigos que trabajan en sistemas informaticos en el CERN, y son matemáticos, físicos teóricos y astrofísicos. Usted no tiene idea de los pasos agigantados con los que avanza el desarrollo en IA. La pobreza supina, como la suya en evidencia, no es mi realidad.
Pues mi cámara de vigilancia detecta a mi perrita como humana.🤪
XD
No imagínate, la asociación canina para la equidad en el desarrollo de software e IA debe estar planificando una protesta masiva.
En todo este documental no veo que se haya tratado de explicar el proceso de desarrollo de una IA a profundidad y explicar como con el tiempo su desarrollo mejorara.
5:00 "esta tecnología ni siquiera puede relacionar objetos con personas de forma confiable"... pues es que ese es el avance a hoy de "esta tecnología", por eso se trabaja con un porcentaje de confianza. Debe ser considerada una ayuda y no la ultima palabra.
Si tenemos una camara de estas en una estación de metro (de EEUU) y salta una alarma por coincidencia cuando identifica a un sospechoso de terrorismo. ¿cual es el paso a seguir?, ¿disparar si preguntar?, no, la idea es que hay un sospechoso. La tecnología solo ofrece una ayuda.
No hay que ser tan alarmista y tratar de entender la tecnología y su avance.