Las discusiones en línea sobre piezas de ajedrez en blanco y negro confunden a los algoritmos de inteligencia artificial entrenados para detectar el racismo y otros discursos de odio, según una nueva investigación. Los informáticos de la Universidad Carnegie Mellon comenzaron a investigar la falla de la inteligencia artificial después de que un popular canal de ajedrez en YouTube fuera bloqueado por contenido "dañino y peligroso" .
|
etiquetas: youtube , ajedrez , racismo
El enlace me lleva a Independent pero no al artículo. #1 #2 #3: ¿Soy al único que le pasa?
O bien porque las podrían considerar prescindibles, y serían las primeras en ir al frente a morir.
Parece este www.independent.co.uk/life-style/gadgets-and-tech/ai-chess-racism-yout
Creo que detecta ip española y reenvía al independent en castellano
Propongo pasarse al shogi. En el fondo es lo mismo y las piezas son todas del mismo color.
Tuturial: www.youtube.com/watch?v=bQx4RrGB16k
La tinta que uso
www.hispanidad.com/uploads/s1/39/25/25/la-imbecilidad-crece_1_640x384.
Blanco y Negro son colores que cualquier distingue aunque sea daltonico y no vea muy bien, esto es buscar polemica porque si
Hay que ser hinjiniero para hilar así de bien
Al menos no en público.
El contexto en el que se habla es muy importante y es una gran asignatura pendiente de estos algoritmos.
Matar al peón negro, sacrificar a la reina, comer un caballo, asaltar la Torre....
¿Como sabes que hablamos de ajedrez o de una revolución violenta por hambruna?
Cuando confunde simios con negros os hace mucha gracia.
Yo no me quejo de que se trabaje con IA para tratar de filtrar contenido a mayor velocidad, no deja de ser lo mismo que hacemos con el spam pero a mayor escala ( y otro orden de magnitud, otra dimensión ). Me quejo de la imputabilidad inmediata, y de que se hagan las leyes sin atender a la realidad, ni a las consecuencias de las mismas.
Si yo creo una plataforma, y no soy capaz de controlar el ritmo al que me suben contenido ilícito en un plazo razonable, entiendo que tendré que buscar una alternativa o cerrar. Pero los grandes actores tampoco pueden, y a ellos no se les obliga a cerrar. Aquí el secreto, en mi opinión, está en la frase "en un plazo razonable".
En el ejemplo que mencionaste de Pornhub, sólo han cambiado que para subir contenido tienes que estar "validado", es decir, que tienen que poder imputarte esa responsabilidad si se diera el caso de un ilícito, pero eso no les va a imposibilitar subir contenido inadecuado. Es la misma situación que antes, sólo que con el usuario identificado. Colateralmente, eso también reduce muchísimo el número de vídeos a controlar, y echará atrás a muchos usuarios que no van a subir contenido inadecuado con el DNI en la frente, pero eso tampoco asegura a la plataforma estar libre de fraude en la identificación, ni el exponerse a publicar cosas prohibidas y ser sancionados por ello. El problema es que seguramente a mi pequeña start-up la obligarían a cerrar, y a los grandes actores no, con lo que eso conlleva para la imposible competitividad en cualquier sector que permita contenido de usuario.
En fin, creo que has expuesto impecablemente todos tus argumentos, que son muy válidos, y que posiblemente la discusión no dé más de sí, no te quiero complicar con posts infinitos.
Hay muchos flecos debatibles, pero creo que Internet es más versátil con un poco de manga ancha ( que es como ha podido crecer y expandirse hasta lo que es hoy día ) o delegando en los jueces lo que realmente les pertenece, y que estas decisiones por un lado "purifican" nuestro sector, pero nos resta mucha competitividad frente al resto del mundo.
Muchas gracias por la sana discusión
Detección correcta = Vídeos detectados como racistas / Vídeos realmente racistas (debería dar 1)
Falso positivo = % de vídeos inocentes que son clasificados como racistas (debería dar 0)
Falso negativo = % de vídeos culpables que son clasificados como inocentes (debería dar 0)
Pero como Google/Youtube se acobarda ante los SJW, entonces le da igual lo que digan las anteriores métricas y así el software falle más que escopeta de feria, entonces no importa, censura todo lo que mencione la palabra "negro" y "blanco".
Y es increíble con los miles de millones de dólares que gana Google, no contrate a más seres humanos a clasificar los vídeos.
En Menéame tengo los escudos bajados ya que la publicidad no es intrusiva. ¿Por qué los tienes tu activados?
Negro con bata: heladero.
y así hasta el infinito. Y lo puedes hacer con todo. Y quedar por encima y decir a los demás lo que tienen que pensar y ver.
Soy experto en robótica compositora virtual
FichasPiezas
El pobre Yago tiene que contar los sucesos de Oriente Medio hablando de “el país innombrable” porque si dice Israel le vuelven a cerrar el canal. Saca un vídeo semanal y el tío se empapa bien en el tema, es una pena que le censuren un buen trabajo por esas tonterias.
Para un buscador, una página de ateísmo beligerante se parece mucho a una página ultracatólica.
Hablan de los mismos temas.
Y no obligamos a una empresa a censurar contenido. Es que por ley hay contenido que no se puede mostrar y YouTube es responsable de ello.
Pero ese poder es como el anillo único.
Y ahí tenemos a los moderadores de cualquier foro, aferrados a su anillo, entregando sus vidas a sacarle brillo a las normas.
Putas normas.
Lo que pervierte todo este proceso es la ingente cantidad de información que sobrepasa las capacidades humanas.
Respito. No estoy hablando de "ofendiditos" las políticas que existen en estos dominios están enfocadas para no tener problemas legales.
Si no fuese así Youtube no censurarían nada. Sería más dinero para ellos.
Y sí la clave es una sociedad más educada. Pero eso de momento es más una utopía que otra cosa. Sin tener en cuenta que si empezásemos hoy no veríamos resultados en 20 años y en esos 20 años los educadores y legisladores educativos deberían ser excepciones a la regla de lo que hoy en día vemos y durante ese periodo de tiempo.
Yo lo veo eso demasiado lejano como para proponerlo como una solución a los problemas de hoy en día.
Pensemos en pornhub ahora mismo. Ha tenido que eliminar todo el contenido que lo esté acreditado. Porque tenía un montón de vídeos en los que se cometían abusos de diferentes tipos. Y no es de extrañar.
Evidentemente que la empresa es responsable. Faltaría más.
Y en cualquier caso no será esto falaz. Sino una simple discrepancia.
En realidad no son responsables a priori. Es que tienen una propiedad y por tanto ciertas responsabilidades.
Por ejemplo. Si yo me dejó el coche abierto con las llaves puestas y entra un menor y provoca un accidente me va a acarrear consecuencias.
Pero es que ese giro de guión tiene su fundamento. Y es la protección del consumidor y del autor debido a las nuevas tecnologías TIC's.
Y más aún cuando lo lucrativo para dichas plataformas no es el contenido en sí mismo sino el volumen del contenido que suben.
Y por el mismo motivo del volumen se requiere de una IA para gestionarlo. Y como dicha tecnología aún está en desarrollo pasan cosas como las de la noticia.
Que podemos discrepar, vamos yo no intento cambiarte de parecer. Yo intento explicarte porque entiendo perfectamente que dichas plataformas tienen que operar de esa forma.
No es que se imponga una censura previa. Es que todo lo que se publica se filtra de una forma o de otra. Tanto por el interés del que publica como del que consume la publicación.
Los periódicos ya pasan por esa "censura previa", tienen un equipo directivo, una línea editorial y antes de publicar la información se contrasta, se modifica y entonces se publica. Y más adelante si dicha información causa cierto prejuicio se denuncia, se prodecede judicialmente y entonces se llega a una sentencia a favor de uno u de otro. Es evidente que el dueño del periódico y el equipo directivo son responsables del contenido que se publica en su medio.
Del mismo modo Youtube, Pornhub, twitter, facebook... son responsables del contenido que ofrecen pero la diferencia con respecto a un medio como un periódico, una cadena de televisión o una plataforma como Netflix es que ellos no pueden controlar personalmente la cantidad, calidad ni esencia del contenido que publican.
Y entonces se puede producir una vulneración de los derechos del consumidor. Por ponerte un ejemplo en una hora, sin algoritmo, yo solo puedo subir 30 vídeos de contenido de índole pedófilo, racista, homófobo etc. En lo que tú como usuario tardas en denunciar un vídeo (te recuerdo que estamos hablando sin algoritmos) y este se quita seguramente a mi me da tiempo a subir 30 vídeos más, mínimo (eso si lo retiran en una hora... que ya te digo yo que no). Si en vez de ser yo solo somos 1000. Pues imagínate. Cada minuto se suben 400 horas de vídeo a youtube. Cada minuto. Ese el problema, que no puede haber control humano sobre esta ingente cantidad contenido. De ahí que tenga que existir un algortimo. Que no es censura previa. Es un algoritmo que lo que pretende es filtrar el contenido que se sube, seguir la línea editorial que podría seguir un periódico cualquiera. El algoritmo está para satisfacer las directrices los dueños de dichas plataformas.
Qué pasaba antes? que dichas plataformas derivaban toda la responsabilidad en el usuario. Y eso no es justo porque dichas plataformas se lucran de ese tráfico de información. Al hacer a las plataformas corresponsables de su contenido evidentemente se vieron obligadas a idear alguna herramienta para filtrar el contenido que se subía, en este caso, un algoritmo.
Dices que sin algoritmo no va a resultar una realidad muy distinta. Yo te aseguro que sí. No es un giro de guión es que las TIC's han propiciado un… » ver todo el comentario
Y muchas gracias a ti también por la sana discusión. Pocas veces se puede disfrutar de algo así en la red. ^^