Racistas, sexistas y hasta convertidos en auténticos psicópatas. Los sistemas de inteligencia artificial que aprenden por sí mismos pueden adquirir los peores prejuicios y rasgos de la personalidad humana al ser entrenados con los datos menos oportunos. Mientras que algunos estudios alertan sobre el problema, empresas tecnológicas como Microsoft y Google se ven afectadas una y otra vez.
|
etiquetas: bot , psicópata , nazi , sesgos , inteligencia , artificial
Pero temo que si interpretan de forma literal muchas cosas no les quedara mas remedio que eliminarnos
Lo correcto es hacer una IA basada en gente 'buena'.
Menos para los candidos, en fin habrá de todo.
Viva el neoludismo!!
La primera frase es sublime: difícil ofender a más gente y con más fuerza con solo una docena de palabras... Con la segunda llama Hitler a Donald Trump de forma muy sibilina.
No solo importa la inteligencia, sino los datos que la alimentan.
Todo lo que leemos o escuchamos lo contrastamos con una "base de datos cultural" y otra "base de datos contextual", si nosotros leemos o escuchamos "el lobo sobrevolaba majestuosamente la pradera" nos choca por que sabemos que los lobos no vuelan. Hemos contrastado la información con una "base de datos cultural".
Pero podría ser que estemos hablando de un lobo al que se le ha enseñado de alguna manera a utilizar un ala delta y entonces al contrastar con la base de datos contextual no nos choque y aceptemos esa información como válida.
Para que un bot no sea vandalizado por toda es a panda de niñatos nazis de /b/ primero tiene que tener una base de datos cultural medianamente sólida para que cuando alguien le diga que hittler fue un tío cojonudo le responda "eres gilipollas".
Es decir se trata de hacer bots que no sean unos ingenuos que se tratan todo lo que les cuentan.