La mayoría de los profesionales que trabajan con tecnologías de inteligencia artificial en el Reino Unido afirman estar preocupados, desde un punto de vista ético, por la clase de productos que están ayudando a crear. El dato procede de un informe difundido ayer bajo el título "People, Power and Technology: The Tech Workers View" ('Gente, poder y tecnología: el punto de vista de los trabajadores del sector tecnológico').
|
etiquetas: profesionales , ia , renuncian , preocupaciones éticas
1. Eres experto en IA
2. Te importa un pimiento la sociedad (te da igual si haces un dron con IA que vuele en pedazos a alguien porque se dió una condición algorítmica)
Entonces.... tendrás curro muy bien pagado para mucho tiempo.
De uno de ellos: los conceptos básicos de deep learning no son difíciles de entender. La verdadera clave es saber adaptarlos en un entorno real y que sirvan para un fin, algo que se cree sólo algunos son capaces de desarrollar ya que se trata de un talento intuitivo que algunos llaman "arte oscuro"
Algoritmos que hacen mucho uso de la estadística y ecuaciones diferenciales+derivadas+integrales para interpolar / extrapolar + Un montón de datos que requiere la estadística.
"In AI, 59% of people have experience of working on products that they felt might be harmful for society, compared to 28% of tech workers as a whole. More than a quarter (27%) of those in AI who experienced such a situation quit their jobs as a result, compared to 18% of all tech workers who had this kind of concern. "
¿En qué tipo de distopía estamos viviendo, para que la idea de que los robots trabajen por nosotros se convierta en algo problemático porque hay unos señores que son dueños de los robots y el resto se quedaría en paro?
Si quieres singularidad, yo empezaría a tejer redes de neuronas con impresoras 3D con células madre. De esto hace 15 años: www.meneame.net/story/construyen-cerebro-artificial-neuronas-rata-capa
Por otro lado #11 la IA puede aprender y hay un montón de algoritmos de aprendizaje automático, esa no es la diferencia.
Al final el Skynet de turno que creen tomará consciencia de sí mismo, se enfadará y ya verás.
todo gran avance en la historia de la humanidad ha tenido su lado oscuro desde el uso de lo nuclear hasta la invencion del cuchillo... e ignorar los peligros no te hace mas que un ignorante...
#21
Que ese fin terminé siendo para bien o para mal es algo que dependerá más de las políticas que se adopten que de la tecnología en si.
Tabula rasa o innatismo? Un tema que seguimos sin discernir después de miles de años.
A día de hoy no hay pruebas de que una máquina con más poder de procesamiento pueda aprender igual o mejor que nosotros en todos los aspectos. Ni tampoco hay prueba de lo contrario. Pero creo que veremos cosas que nos sorprenderán mucho y no tardarán demasiado.
Cc/ #34
es.m.wikipedia.org/wiki/Aprendizaje_no_supervisado
es.m.wikipedia.org/wiki/Aprendizaje_por_refuerzo
www.lavanguardia.com/ciencia/20181206/453396865826/inteligencia-artifi
La diferencia entre nuestro cerebro y las redes neuronales de I.A. aparte de la consciencia, es que una red neuronal educada para una tarea al ser enseñada para que haga otra tarea desaprende la que conocía. Se requieren muchas redes neuronales de forma que aprendan tareas de todo tipo y se integren todas creando una representación de la realidad entre todas donde pongan todo y aprendan todas las tareas como un todo viviendo en la realidad como parte de la misma con ese truco. Es decir que adquieran consciencia para poder tener y mantener multitarea de forma coordinada
Ese sería el siguiente paso
Pero es falso que no aprendan. Realmente lo que está haciendo la actual I.A. es aprender sin ser programada para tareas específicas sino ser educada y aprender a reconocer cosas ya rectificar y desaprender,, de todo. Y algo muy curioso es que cuando se miran tensores (conjuntos de neuronas conectadas entre sí) cuando aprende y no tiene entradas de más información sino que está procesando internamente y esos tensores se muestran en imágenes o lo que sea son claramente representaciones oníricas como el contenido de nuestros sueños, tan colas y extrañas y calcadas a los mismos, al mismo sueño
Con lo que después de siglos o milenios especulando que podrían ser los sueños, las I.A. artificiales basadas en redes neuronales lo han mostrado en toda la cara... Y encima que cuando se las desconecta y deja hacer procesos internos de aprendizaje propios de la red, Dicha red neuronal tiene un desempeño superior que las redes neuronales que no se les ha permitido eso sobre todo ante situaciones nuevas que no estaban tal cual en el aprendizaje.
Vamos que eso son los sueños. Ocurre que en la realidad que representamos y en la que vivimos dentro de nosotros además del yo y las cosas nos presenta lo que sentimos, emociones, deseos etc sobre las cosas y se guardan en la red también creando las motivaciones para el comportamiento y las decisiones
El problema, creo yo y opino yo, es que una máquina, una I.A. artificial requerirá de motivaciones de algún tipo al llegar a un nivel parecido de complejidad y consciencia, para que haga un tipo de acciones u otro y tome decisiones encaminadas a una cosa u otra que luego se fijen a su vez en el aprendizaje de la red neuronal creando su personalidad
En este caso nosotros tenemos las nuestras dadas por la evolución biológica porque funcionaban para transmitir nuestros genes en las situaciones que nos toca vivir... Y ya.
Si la I.A. sirve a una máquina de guerra las motivaciones para tomar unas decisiones sobre otras también deberán estar impresas de antemano y marcar el aprendizaje de la red neuronal, no tendría unas emociones como los humanos o un animal sino otras u otra cosa según la tarea a la que esté destinada, algo así lo podríamos llamar en cierta forma como sentirse feliz o realizado si hay consistencia entre lo establecido, aprendido y las acciones que esté llevando a la práctica.
Por tanto si la I.A. gobierna una máquina de tipo militar esas motivaciones impresas serán de tipo militar y la I.A. tenderá a tener ese tipo de motivación por encima de otras como la cooperación... Es decir entonces es cuando será un peligro para nosotros
Es lo que me parece
<<dnf the operation would result in removing the following protected packages>> Las redes neuronales son unos algoritmos concretos o bien circuitos impresos. Eso es irrelevante. NO son algoritmos para resolver el problema específico sino que aprenden y son educados para resolver cualquier problema. La afirmación que son cosas que hacen uso de la estadística concreta o son algoritmos para el problema concreto o la afirmación que no aprenden son afirmaciones objetivamente falsas.
da igual lo que sean exactamente y concretamente por dentro. La imagen de funcionamiento de los mismos es objetivamente falsa y no corresponde a la realidad como he indicado
Tu neocortex es una red neuronal
<< Estudialas pero no de alto nivel (usando TensorFlow), sino al más bajo nivel, el de las ecuaciones diferenciales, derivadas, etc.. y t>> No hace falta cálculo diferencial por más que pueda ser una herramienta para entender como no le ha hecho falta a la evolución biológica para generar nuestras redes neuronales en el necortex. Y las conozco desde finales de los 80. Lo que hacía falta entonces era capacidad de procesamiento en paralelo y gran cantidad de conocimiento que procesar. ya había anéctotas curiosas entonces
pero las redes neuronales aprenden y son educadas
<<Empieza con el perceptrón multicapa. >> Se lo que son. Y ya se lo que es el perceptrón y como funciona.
Que no tienes razón con la idea que quieres dar.
El hecho es que APRENDEN y han de ser educadas. Y eso es un hecho. Y el hecho es que lo haces tu con las tuyas. Da igual como funcionen. Pero no se puede decir que como somos procesos físicos rígidos en nuestro cerebro nosotros no podemos aprender
O como las redes neuronales artificiales son físicamente como son no puedan aprender. El hecho es que lo hacen. Así que da igual que algunas sean "gresiones lineales o de dos o más variables independientes" Da igual y no se puede concluir que por tanto no pueden aprender. Es que de hecho lo están haciendo. Así que sean lo que sean algo no se está entendiendo si se niega una relidad objetiva al mirar su funcionamiento. Porque el funcionamiento es real, pero que aprendan y sean educadas y no se les de algoritmos rígidos para cada problema sino que se les enseña a resolver el problema con ejemplos acierto y error es REAL y lo hacen igual de bien o mejor que los humanos
Punto
Si la inteligencia emerge de mucho de eso pues emerge de mucho de eso por más que se cree en almas mágicas. Si es eso y acaba apareciendo pues es eso
no vale la pena darle más vueltas cuando los hechos están ahí
<<Estudialas pero no de alto nivel (usando TensorFlow),>> por cierto Alpha de google está usando procesadores diseñados específicamente para correr el TensorFlow o "flujo de tensores" denominados TPU (Tensorflow Process Unit)
<<por favor, el tal aprendizaje es el ajuste de pesos que se le da a cada entrada en cada neurona + el peso de la entrada independiente>> Exactamente. Lo mismo que hace tu cerebro con las dentritas y la salida del axón en las neuronas
NI por favor ni leches. ES QUE ES ESO. No es algo programado ex profeso para la tarea. Es una red neuronal y esta aprende y es educada. IMPORTA UNA MIERDA que ese tenga que ser el funcionamiento en este debate porque es que FUNCIONA y aprenden.
Y tanto o mejor que los humanos como he indicado
francis.naukas.com/2017/12/09/alpha-go-zero-domina-el-ajedrez/
¿qué de procesos tan sencillos y mecánicos te parezca que no pueda surgir la inteligencia y lo des por hecho es un argumento?
NO. Porque aprenden y surge y muchas de las características de la nuestra más de lo que se podía imaginar
Si es eso pues es eso. Da igual lo mecánico que sea en sus mecanismos más simples. Lo que importa es que el conjunto emerja una inteligencia como la que emerge sin estar específicamente programada sino que aprenda y surja parecido a lo que hacemos nosotros que en el fondo son procesos físicos, mecánicos y químicos en las neuronas por más que luego nos demos de razonar sobre la naturaleza del universo y su destino
<<Si tomas un perceptrón multicapa y lo examina, se dará cuenta que es una ecuación muy, muy, muy larga>> no es una ecuación el mismo perceptrón como la gravedad no es una ecuación. Se puede expresar con una ecuación que hace años que vi y cierto es la caña
¿y qué? La gravedad también, procesos de la evolución biológica también se pueden expresar con ecuaciones y la formación de un copo de nieve
¿y qué?
<< y tampoco cambia la función de activación (es la misma en todas la neuronas). >> vale para el perceptrón ¿y qué?
Y la actividad de procesado de los nervios ópticos seguro que se puede expresar en una ecuación
¿y qué?
No, no vale eso de "es que funciona y con eso estoy contento", no, eso no me contenta a mi, lo importante es: "es que funciona y se porque funciona y puedo controlar como funciona"
<<merja una conciencia o inteligencia (dando a entende>> hey que el perceptron no son las redes profundas de aprendizaje... Eh las cuales SI son cajas negras
Y el perceptrón no es una ecuación. Se puede describir con una ecuación
Eso que lo real se pueda describir con ecuaciones matemáticas según tu como que no. Pero la realidad es que sí. Que si se puede hacer eso. Las matemáticas son lenguaje y la realidad se puede describir mediante lenguaje. El perceptrón en este caso (no toda red neuronal) se puede describir mediante una ecuación compleja pero no es la ecuación como la gravedad no es las ecuaciones de campode Einstein, sino que estas lo describen
En realidad el problema es espistemológico y a que denominamos que
<<no, eso no me contenta a mi, lo importante es: "es que funciona y se porque funciona y puedo controlar como funciona" >> Eso no es cierto. DE nuevo Caes en el mismo error
Las redes neuronales de aprendizaje profundo son cajas negras, no sabes lo que hace en cada momento ni que ni lo puedes controlar pero sí EDUCAR y ENSEÑAR
Como hacemos con animales o con humanos
Por eso me parecen interesantes desarrollos como los de Penrose (aunque estén muy discutidos) al menos en su dirección; tratar de encontrar en la propia materia qué es lo que constituye los "qualia", qué nos estamos perdiendo. Me interesa más ese "camino del medio" que no deja de ser materialista pero que no finge que el problema no existe.
En lo que estoy de acuerdo es en que solo se pueden dar opiniones; pero precisamente porque hay algo que todavía se nos escapa en todo esto.