"En cualquier caso, tiene un potencial enorme en todos y cada uno de los aspectos que nos podamos imaginar. Yo, a título personal y como creador de contenido en TikTok, veo en Sora una herramienta fantástica para conseguir cosas que de otra manera no podría conseguir. Hablo de vídeos sobre el espacio y sus rincones, lugares que nadie puede grabar; planos tan específicos que quizá no existan, abstracciones que sirvan para ilustrar ideas. Es en estos puntos donde, personalmente, le encuentro potencial. Sora no es perfecta. Sería preocupante.....
|
etiquetas: edición de vídeo , chatgpt , sora , generación vídeo ai
No me quiero imaginar cómo puede ser la cosa en 5 años. Me temo que la distinción entre lo real y lo generado será tan perfecta que las implicaciones sociales, jurídicas y políticas pueden cambiar el mundo tal como lo conocemos.
No me quiero imaginar cómo puede ser la cosa en 5 años. Me temo que la distinción entre lo real y lo generado será tan perfecta que las implicaciones sociales, jurídicas y políticas pueden cambiar el mundo tal como lo conocemos.
Con un poco de suerte todo el cine infantil de superhéroes dejará de ser el principal contenido consumido.
También digo que me parece la democratización del arte. Ahora cualquiera podrá crear con la ayuda de la IA verdaderas obras de arte y no simples cubos de pintura tirados en un lienzo por un niño pijo a 30000$.
Eso sí, va a hacer una buena limpieza, sobre todo en arte, ahora realmente todo va a valer...
Los médicos andan acojonados pero alguien tendrá que enseñar a la IA. Va a morir la parte repetitiva del trabajo. Los fabricantes de aparatos de diagnosis andan como locos comprando a los hospitales bancos de pruebas para entrenamiento y eso claramente va a mejorar los diagnosticos.
En cuanto a que las máquinas quieran tomar el control, ellas no quieren nada, no tienen ni interes, ni voluntad, ni preocupaciones, hacen lo que se les mande, como si pones un cubo sobre una puerta..., el próximo que pase se va a mojar
Sólo pensar el innumerable número de vídeos fake en Tik Tok, en Telegram y Whatsapp me pone los pelos de punta.
Sobre todo en momentos decisivos de gran incertidumbre social tales como periodos electorales, manifestaciones masivas, conflictos internos y bélicos, etc.
No me quiero imaginar el terrible uso, por parte de "medios serios", tradicionalmente dados a la difusión de bulos como si fuera información veraz a sabiendas que no lo es, o en el uso como pruebas por parte de las cloacas del Estado como la justicia patriótica o Fuerzas de Seguridad del Estado, las horribles implicaciones que puede tener para la libertad y la seguridad jurídica ciudadana.
Siempre he pensado que cómo es posible que, para producciones multimillonarias, los guiones utilizados tuvieran una calidad tan pobre. Me parece recordar haber visto un vídeo que decía que los estudios exigen que las historias sean poco elaboradas para que puedan ser seguidas por la mayoría del público, lo que nos lleva a que la gran mayoría de las pelis tengan la profundidad de un charco.
Imagina que ahora pudiésemos ver pelis con la misma producción pero pudiendo elegir el nivel de dificultad del guion, como la elección de los niveles de dificultad de los videojuegos.
#13 El ser humano es bastante emocional. Yo hay fotos de catástrofes falsas hechas por IA que huelan la sangre.
Como ciudadano no veo absolutamente ninguna ventaja en ello.
Mira los dos vídeos en los que hay personas interactuando entre ellas.
La capacidad que tiene para modificar y mezclar videos es sorprendente.
#20 También es tremendamente difícil ver un personaje quitándose la camiseta con CGI.
Buen plan.
Lo que nos viene es un aluvión de fake news que será practicamente imposible de saber si son reales o no, si ya tenemos problemas hoy día no te cuento en unos pocos años. Además como la gente en lugar de tener más pensamiento crítico tiende a menos, nos espera un futuro de mierda.
Quiero decir que se podrían identificar las fotografías originales y demostrarlo sin problemas usando tecnologías disponibles como blockchain.
Cada dispositivo podría tener un par de clave publica / privada y automatizar en la toma de fotografías el cálculo de su hash y subirlo a una blockchain. Lo mismo para los programas de retoque fotográfico y los CMS tipo wordpress. Los navegadores podrían comprobar en tiempo real de dónde proviene la imagen, si ha habido cambios e incluso - con la aquiescencia de los creadores - el nombre del fotógrafo. A nivel profesional sería muy útil y evitaría el robo de imágenes. Los browsers podrían consultar en un índice específico si el hash de una fotografía está verificado o no... Lo mismo para vídeos y audios.
Sería cuestión de que los dos grandes (Google y Apple) y los fabricantes (Sony, Samsung...) lo acordaran.
Vamos, que para la gente con ganas e imaginación se abren muchas puertas.
Al usuario random de tuiter que se la cuelan con una memez, se le seguirá pudiendo colar. A nivel judicial, con profesionales, no representa un gran problema.
Cambiará el paradigma y la noticia será cada vez menos relevante en nuestras vidas. Estaremos tan bombardeados a fake news que conforme pasen los años será menos relevante y sólo nos sorprenderemos sobre lo que escuchemos por puro entretenimiento, siendo conscientes de que todo es mentira.
lo mismo que opina #7
Una herramienta muy potente en manos de una especie muy lamentable.
Pero ni tú ni yo vamos a estar para comprobarlo
La IA está dando solución a problemas que nunca han existido. Nunca, la sociedad, ha echado en falta automatización y sustitución de mano de obra artista. Y mientras, mi Roomba se sigue quedando atascada con los cables. Mientras, sigo teniendo que limpiar yo el puto baño de mi casa. Mientras, tengo que seguir cocinando por la noche antes de ir al curro al día siguiente. Mientras, sigue habiendo miles de personas haciendo trabajos peligrosos jugándose la vida.
Esto sólo va a mejorar la vida de los vividores, vende humos y gente sin talento.
La mediocridad intelectual de los que se alegran de que los robots hagan "arte" para ahorrarse cuatro perras (que ya veremos) contratando a artistas, es digna de estudio.
Ahora mismo en pintura, desde el desconocimiento, creo que es muy dificil que ingenies nada "nuevo" y revolucionario. Por ejemplo, el tema de las pinturas realistas ha tocado cima, realmente no puedes hacer mucho más. Y ser mundialmente conocido es muy complicado, hasta diría que la televisión tradicional condicionaba mucho que hubiera figuras referentes porque era poco contenido metido por un embudo a todo el público.
- dar pena
- contar historias de pena
- contar historias conmovedoras
- contar historias de esfuerzo
- contar historias en sitios como áfrica, sudamerica, etc
Todo eso existe, pero cuando es de verdad, la gente no pierde tiempo en hacer videos y pasearlo por internet. A la gente que hace el bien, los puntos de internet les importan un carajo. La gente que hace el bien, simplemente lo hace, sin mirar a la cámara ni buscar o esperar un premio.
Cuando hay una cámara, hay interes, hay alguien que paga y hay alguien que espera recibir algo.
Y ahora lo mas jodido es que os toman el pelo con nonerias, penas y sacrificios, fotos espectaculares, videos impresionantes, que no necesitan que exista nadie ni nada.
Ahora el bulo es total.
----
Cualquiera que haya trabajado aunque se aun poco en televisión, especialmente en programas en directo sabe de lo que hablo. Si tradicionalmente todo lo que se publica o se pone en directo esta controladisimo, ahora con la IA el control es prácticamente del 100%.
Estamos cerca de no poder creer si algo es cierto o no.
Unos poco anos antes de morir, recuerdo a mi abuela viendo como mi hermano menor jugaba a un videojuego en primera persona. Estaré hablando de graficos de hace unos 10 años. Mi abuela no distinguia que esos gráficos no eran reales, para ella la fidelidad que había en movimiento, luz, etc era suficiente para que diera por hecho que se trataba de una película. Estamos hablando de alguien que nació en la década de los 1920.
Lo que se está produciendo ahora aun tiene algun fallo, algunos detalles que dan pistas. Estad atentos...
En ese sentido coincido un poco con #13, eso se mirará con mucho más escepticismo.
Y ESE será el problema. Nada se podrá creer. Si alguien, en esa jornada de reflexión, pone un vídeo de monjas..... no se cree. Si sale un vídeo robando sacas de votos? no se cree. Si sale un vídeo de un periodista sacándole un frase al político de turno? no se cree.... si alguien rescata hemeroteca? No se cree..... fotos como la de Feijoó con el narco en unos años no será posible, el vídeo de Aznar con el vino... tampoco...
Y no se qué es peor, que todo sea falso o que todo pueda pasar por falso......
El problema es que tenemos otras prioridades. No hay más que ver esta página.
Ahí está la clave. Para el martillo todo son clavos. Es la mentalidad del ingeniero aplicada al arte, la narrativa y la comunicación, considerar al profesional un "problema" a confrontar, y la IA su "Solución Final". Y en Menéame reverdece con esplendor esa mentalidad en muchos usuarios (que intuyo informáticos).
Una tecnología que sería absolutamente maravillosa para reducir o eliminar los riesgos laborales, el diagnóstico y prevención de enfermedades, analíticas en casa, apoyo para Geriatría, stock y logística, persecución del fraude fiscal, optimización de tráfico, salvamento marítimo de inmigrantes, persecución del tráfico de drogas, búsqueda de desaparecidos, democracia más participativa, etc.
Pero en lugar de eso nos ponemos a aumentar a lo bestia la huella del carbono y expoliar aún más los recursos hídricos para que un usuario random (con cero experiencia en las áreas de conocimiento y un síndrome de Dunning-Krueger que asusta), se crea que va a hacer una película equiparable a un Oscar pagando una cuota mensual a la empresa regada de capital riesgo que ha entrenado sus modelos con las fotos de tu hija de 3 años que colgaste hace diez en una red social.
Es decir, ahora nos conformamos con que lo que nos dicen sea cierto, aunque sea una absoluta manipulación.
Y sí, las prioridades son nuestro egoísmo visceral, en el que me incluyo.
Es una necesidad que existe para caraduras y explotadores. Gente que no sería capaz de identificar el arte ni el valor de la artesanía ni aunque les abofetease la cara.
Me dedico a la robótica. No hago automatización industrial (que no creo que tenga nada de malo per se), llevo toda mi vida laboral sustituyendo a humanos en situaciones en las que se juega la vida y literalmente la robótica es la única solución. La robótica lleva estancada tecnológicamente décadas (a pesar del Boston Dynamics de turno) y cuesta dios y ayuda encontrar financiación. Puede que estas redes neuronales algún día encuentren aplicación útil (se sabe que así es), pero por desgracia, parece que la gran mayoría de la financiación y la atención se está destinando a necesidades que no son acuciantes para la sociedad.
Sustituir a los animadores de Pixar, qué gran avance para la humanidad
#52 Totalmente de acuerdo.
El potencial de Sora es tremendo, les falta mucho y a ver qué es posible, pero el latigazo a las startups de generación de vídeo es grande. Runaway y otras van a tener que ponerse las pilas y se nos vienen cosas muy interesantes para el futuro cercano.
* Una opción que funciona a veces es, con la extensión uBlock Origin de Firefox (supongo que también es posible en Chrome), hacer click derecho en cualquier punto de la capa "oscurecida" alrededor del diálogo, y filtrar el elemento. Muchas páginas te permiten navegar normalmente si ocultas el diálogo de aceptación, aunque no todas.
* Mucho más sencillo, aceptar las cookies, pero tener una extensión como "Cookie Auto-Delete" que, nada más cerrar la pestaña, las elimina de tu ordenador. Lo malo es que mientras tengas la ventana abierta éstas podrán ser "leídas" por otras páginas que visites.
cc #3
#63 no existen medios de comunicación serios, todos responden ante accionistas, ante el dinero.
Por otro lado igual se acaba la era de los selfies y eso sería positivo. Para que voy a hacerme una foto en la torre Eiffel si me puedo generar una mucho mejor con la ai?
www.reddit.com/r/sora_videos/s/6o5P2bRTIF
www.reddit.com/r/soravids/s/blBk8UrXkl
youtu.be/UWKKMUKwE_E?si=b7CYPSgHUXrfK-AJ
#68 Si de los 50 a los 2000 hubo pintores famosos, Warhol, Basquiat, Botero... Pero cada vez menos.
En el siglo XXI conozco a Richter, Koons (aunque no se si se le puede considerar pintor), Pei Ming pero no son conocidos por la mayoría.
Y no la calidad indiscutible que hay ahora.
Lo de las fake news no necesitan IA, son de toda la vida, la información siempre es parcial, incluso tratando de no serlo, no hablemos ya de los medios de formación de masas!
Esto es como lo de los supuestos identificadores de texto generado por IA, que no funciona ninguno salvo en los típicos casos en los que le dices a ChatGPT "genera un artículo sobre X con 700 palabras", que es facilisimo identificarlo, pero cuando metes un poco de profundidad en el prompt empieza a fallar y no es identificable ni para una IA ni para un humano.
Si yo tengo intención de falsificar un vídeo, tengo a mis espaldas miles de horas de audiovisual para pensar qué cosas debería tener en cuenta. Ya no me refiero a aspectos que tendré que recomendarle al generador IA, tipo la ubicación, la hora del día, el clima del día, y el resto de elementos que tienen que tener coherencia con los que habría físicamente en la realidad en esa ubicación. Ya partimos de una configuración de escenario bastante complejo, ya que no sólo la imagen ha de ser impecable, sino que tendrá que guardar coherencia con lo que el perito experto podrá acercarse a comprobar en persona.
Para un usuario medio avanzado como yo, y no soy perito judicial, no es difícil identificar posibles deformaciones geométricas que me den una pista del tipo de objetivo que podrían haber utilizado. Si además me han dado acceso al supuesto archivo original, éste dispondrá de unos metadatos. Algunos de esos metadatos los conoce todo quisqui y con cualquier programa los puedes extraer. Otros no son accesibles sin más, tampoco es que estén ocultos, pero son datos que introduce el fabricante. Cada fabricante de dispositivo utiliza unos metadatos concretos.
Si el gundilla que ha falsificado el vídeo no tiene ni idea del dispositivo, o del firmware, o de la configuración posible, o la que tenía en ese momento el dispositivo, también se podrá detectar con una sencilla comparación.
Y esto es sólo lo que un usuario medio-avanzado como yo puede aportar para empezar. Un perito experto puede ir muchísimo más lejos.
Como he dicho... hoy por hoy, un perito audiovisual experto no tiene ningún problema con un vídeo generado por IA. Se lo pone posiblemente más fácil que un intento de falsificación a partir de un vídeo real.
El problema son los crédulos comedores de bulos de tuiter, y lo que opten por hacer con su voto consecuencia de las trolas que tragan.
Lo primero que nos tenemos que preguntar es: ¿quién va a intentar crear un video fake como prueba judicial? Ahí hay un montón de opciones: puede ser desde el fulano que tuvo un accidente y quiere que en el vídeo de su dashcam parezca que el otro coche se abalanza sobre él, hasta el típico vídeo de una cámara de seguridad en el que un propietario de un local quiere echarle la culpa a otro de un robo. Luego hay casos más extremos que me gustaría pensar que no suceden (me gustaría), como pruebas manipuladas por la policía y otros niveles del "sistema".
En todos los casos que se me ocurren se da una circunstancia: quien presenta el vídeo manipulado es la persona que tiene acceso al dispositivo. Por tanto, si yo sé que voy a presentar una falsificación de un vídeo generado con un móvil Samsung Galaxy A04S con un firmware 1.0.3 y sistema operativo Android 12.0, ese es un dato que le pasaré a la IA y generará un vídeo con esos metadatos exactos. Sin problemas por ese punto.
En cuanto al realismo y los detalles, dependerá del avance de las IAs exclusivamente. La idea de OpenAI con Sora es precisamente generar un sistema que entendiera la realidad física para poder entrenar modelos. En el momento en el que eso esté hecho, las sombras, movimientos, etc serán perfectos e imposibles de discernir de la realidad. Entiendo que haya gente que se niegue a creer que dicho avance se producirá, pero viendo el avance de los últimos años parece imposible pararlo. Tienes que pensar que no hablo de la tecnología de hoy en día, esto es solo aquél palo que un mono golpea en el inicio de 2001 Odisea del Espacio.
En todos los casos que se me ocurren se da una circunstancia: quien presenta el vídeo manipulado es la persona que tiene acceso al dispositivo. Por tanto, si yo sé que voy a presentar una falsificación de un vídeo generado con un móvil Samsung Galaxy A04S con un firmware 1.0.3 y sistema operativo Android 12.0, ese es un dato que le pasaré a la IA y generará un vídeo con esos metadatos exactos. Sin problemas por ese punto.
Ya te intenté explicar, sin éxito, los motivos FÍSICOS que hacen que ese dato no tenga valor. Porque un perito hará la comprobación FÍSICA.
Pero da igual. Como dije, mi nómina este mes no está tampoco asociada a mis aportaciones a este foro.
Por eso el arte es el primero que está siendo afectado, porque las cagadas dan igual, no son peligrosas. De hecho ahora el problema es que funcionen demasiado bien y nada de lo que veas una pantalla sea fiable/real.
Me parece más preocupante que se estén violando los derechos de autor de forma generalizada sin despeinarse y aquí ninguna autoridad mueva un dedo.
Eso es muy difcil de resolver con una red neuronal, a quién solamente puedes darle un texto con instrucciones.
Es como eso de "cuantos dedos tiene una mano". A ver cómo lo haces. Cualquier humano o cosa consciente se hace un modelo de una mano donde hay cinco dedos. Una red neuronal no puede hacer nada de eso. Se limita a mezclar muchas imagenes distintas, porque es una red neuronal y las redes neuronales son así, esto es como la fábula de la rana y el escorpión.
Lo que sí que veo mejorable es la definición de las imágenes, o lo de que los rótulos pongan algo legible.
Pero, insisto, por muchas mejoras que le metan a estos aparatitos, no van a dejar de ser redes neuronales, y el escorpión mata a la rana porque es un escorpión.
Te hablo de peritaje multimedia.
-un testigo vio ese día un Kia rojo con un rayado en la puerta derecha. En el vídeo no sale ese Kia. Video manipulado.
- lo ha grabado con el móvil Samsung que tú aseguras. Pero en Google fotos tiene sincronizado hasta las fotos de la factura del pescado pero ese video no está sincronizado. Video manipulado.
- el log interno del móvil no tiene ese video. Es más, el número de metadatos que le corresponde no ha sido usado o ya ha sido usado en otro video. Video manipulado.
Y aún no he tenido apenas que tocar el archivo.
Yo si he participado como betatester oficial de alguna de las herramientas IA más usadas hoy día en sus fases iniciales.
Así que si. Insisto con mi primer comentario.
Un perito audiovisual experto lo tiene más fácil con un vídeo IA que con un vídeo real. Mucho más fácil.
Odio la terquedad, así como haber dicho que esto estaba terminado y aún así me sigues arrastrando.
Te dejo un tiempo en ignore. Dedica a esto más tiempo y más atención la próxima vez.
Odio perder el tiempo.
1) el que alguien diga que había un Kia rojo y otro diga que no y además aporte un video es un conflicto probatorio y el juez suele dar más peso al que aporta pruebas.
2) el que falsifica una prueba con un mínimo de 2 dedos de frente sabe que no tiene que subir nada a ningún servidor de internet y por tanto lo tiene desactivado (además de que mucha gente, como yo mismo no tenemos sincronización en la nube)
3) el log interno tendría ese vídeo, eso facilísimo de manipular con un cable y con ADB
4) "el número de metadatos que le corresponde no ha sido usado o ya ha sido usado en otro video" eso directamente no tiene sentido, no hay una secuencia en los metadatos. Los metadatos que se introducen son fecha, hora, dispositivo, etc. pero no hay una secuenciación de ningún tipo
Está muy bien que hayas participado como betatester en alguna herramienta de IA, pero veo que no tienes muchos conocimientos de informática en general, ni de peritación judicial en concreto.