edición general
176 meneos
1894 clics
Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo

Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo

Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí. Es una lástima que Julio Alonso y Antonio Ortiz no reciban el suficiente reconocimiento. Ellos fueron los fundadores de esta página en noviembre de 2004, pero Google Bard no acierta. Tampoco lo hace ChatGPT.

| etiquetas: ia , ia , oh
«12
  1. #0, la tercera etiqueta debería ser "Cthulhu" y la cuarta "fhtagn"
  2. Está claro que la siguiente IA de conversación inherentemente mentirosa tiene que llamarse Feijóo, para adaptarse a la realidad.
  3. No miente, cambia de opinión.
  4. Le he intentado pedir por el lyric de una canción muy popular, casi un himno.  Ha contestado con un lyric totalmente inventado... que curiosamente ha mantenido tal qual al regenerar la respuesta.
    Entiendo el problema con ChatGPT, si no está conectado a internet no puede buscar información, y es mucho pedir que tenga guardados los lyrics de canciones. Pero si le pido a Bard que literalmente busque el lyric de X canción de Y grupo por internet... no sé. No me parece muy complicado, a priori.
  5. Google lo cerrará en 1 año, no os preocupéis
  6. Es un problemón, nosotros para los reportes de error para usuarios hemos planteado ayudarnos en IA para que a base del numerico de error que suele ser, si no sabes como apañartelas, indescifrable para el usuario y nos tiene que consultar, pos tirar de API y que le salga una ventanita que le indique al usuario de manera un poco mas legible que coño le pasa usando Chat GPT

    Estamos aun en pruebas pero la verdad es que va a tener poco recorrido que lia más que arregla
  7. #4 No querrás que Google se enemiste con los dueños de los derechos… a ver si son «features» los supuestos errores.

    ¿Acaso ChatGPT proporciona enlaces —enlaces que sirvan, no páginas inexistentes o no pertinentes? Hay buscadores y no se quieren pisar el terreno… por ahora.
  8. y la proxima que saquen seguira cayendo en el mismo problema de base: un periodista no sabe que es una IA, como funciona ni por que obtiene los resultados que obtiene. en su cabeza una IA es un personaje de pelicula de ciencia ficcion, un ser consciente de si mismo que lo sabe todo y siempre tiene razon. ridiculo.
  9. #1 Ahí te doy toda la razón, pero, dada la calidad de las dos IA, estaba pensando en la vieja factoría :shit:
  10. #2 Se dice Feikjóo
  11. Suelo chequear cuando veo críticas a GPT por desinformacion y casi siempre las respuestas son correctas y las criticas infundadas.
    Bastante más desinformacion da xataca que Chat GPT  media
  12. #10 A mi el autocorrector me destina a "frijol" , pero claro, la fonética puede tener esos tintes finlandeses que propones.
  13. Geniales las etiquetas. {0x1f44f}

    Salu3
  14. #11 me retracto de mi anterior comentario. Bard se lo inventa todo  media
  15. Meneame donde las I.A se lo inventan todo, feijoo solo dice mentiras, los datos son fascistas y Pedro Sanchez solo cambia de opinión.
  16. La primera pregunta que le he hecho ha sido sobre mi pueblo y me ha dicho que es patrimonio de la unesco (cosa que no es) y se ha inventado nombres de playas.
  17. #7 Si le pides que te muestre en una tabla los enlaces a cualquier producto de Amazon, lo hace.  media
  18. #14 Ya dijeron los empleados de Google que Bard era un mentiroso compulsivo.
  19. Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí.
    Es muy burdo, pero van con ello.
  20. yo sigo con la misión imposible de hacer una lista de 1000 elementos o así. Ponme 5000 obras de arte, aquí tienes 5000 obras de arte y te pone 10 y tan contento
  21. #17 Eso es comercio y Amazon lo bendice. xD

    Mi experiencia ha sido la que relato; quizá haya cambiado. La verdad es que no uso chatGPT desde hace semanas.
  22. mas mentiras que frases... alucino!  media
  23. Cuando se enteren de que un modelo de lenguaje no es una máquina de la verdad simplemente tiene que parecer convincente van a entender muchas cosas. Mientras, pues nada, artículos sobre pedirle peras al olmo.
  24. Parte de las alucinaciones viene de lo capadas que están estas IAs para que sean "políticamente correctas" (por no hablar de que ChatGPT da sopas con honda a Bard). ¿Desea saber más?
  25. #21 Hay enlaces que sí te los da. Algunos no funcionan porque tiene el corte de información en septiembre de 2021...
  26. #7 ChatGPT no sé, pero la de Microsoft sí que te pone una nota al pie con 2 o 3 enlaces con sus fuentes. También es muy de inventárselo todo.
    Pd.: Aunque en este caso sí que acierta y los tres enlaces apuntan a Xataka.
  27. #14 #18 hay que entender como funcionan estas IAs. El problema es que las respuestas nunca son iguales. De la misma forma que si le pides a Dall-E que dibuje cualquier cosa, ejemplo totalmente aleatorio :calzador: :roll: "dibujame a Feijoo en el barco de un narco", da igual que se lo digas 1000 veces que no habrá ninguna que sea igual que la anterior. Serán más o menos parecidas, pero siempre diferentes.

    Con esto quiero decir que aunque ChatGPT te haya dado una vez la repsuesta correcta, no quiere decir que la respuesta que te vaya a dar las otras 999 veces también lo sea. Probablemente muchas si, por eso de que las respuestas se parecen y los margenes de errores se tratan de minimizar, pero no es 100% asegurado que ninguna respuesta sea correcta.

    Bard claramente está en sus primeros pasos y le queda mucho que mejorar. Lo han sacado deprisa y corriendo para no quedarse atrás, empezar a probar y mejorarlo de forma iterativa con los datos que vayan recopilando.
  28. #21 Puede que tengas razón porque si le pides que te muestre los enlaces a las entradas de blog más leídas sobre ciencia ficción te dice que eso es en otra ventanilla. xD
  29. #26 Hay que seguir los enlaces. Mi experiencia ha sido que todos, todos eran inútiles —o la página no existía o no tenía relación con lo pedido. Como digo, hace semanas que no uso gpt's ni similares.
  30. #11 ChatGPT es muy bueno. Alguna se inventa, sí, pero tiene muchísima información correcta. Y para reescribir textos cambiando el tono (más formal, menos, etc ) o que te de resúmenes de algo es genial.
  31. Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo.

    No como Xataka... :roll:
  32. #4 Letra, la palabra que estás buscando es letra.
  33. La IA ya puede sustituir al derechista estándar: se conecta a internet y da discursos inventándoselo todo. Liberatas,.fachas, etcétera, todos al paro.
  34. #28 Lo que está claro es que quieren que pagues por el servicio —con dinero o entrenamiento— y no quieren enemistarse con otras compañías —al menos hasta que no tengan la sartén por el mango. Limitaciones "políticas" y "by design" haylas.
  35. Porque no es un problema de implementación, sino de diseño. Los LLMs lo que hacen es predecir tokens en base a su entrenamiento, o sea lo mismo que hace el autocompletado de tu móvil pero con un modelo mucho más grande (billones de parámetros). OpenAI es la típica startup con un producto que es imposible de rentabilizar y creada con el único propósito de ser comprada por una gran tecnológica.
  36. Pues ya puede trabajar de periodista
  37. Pues os hago una pregunta en serio a todos. ¿De verdad creéis que ChatGPT se inventa más datos que la persona promedio? Si es así, pues vale. Pero en mi experiencia no sólo no es así, sino que ChatGPT gana de calle.
  38. #15 Por desgracia frijol dice mentiras fuera de Meneame también.
  39. #22 Lo de la buena calidad de vida no lo has marcado como mentira :troll:
  40. Obvio que se lo inventa todo, es una IA de procesamiento de lenguaje, sirve específicamente para inventar textos...
  41. #35 Totalmente de acuerdo, creo que aún les falta mucho recorrido. Yo he empezado a utilizar Midjourney y es asombroso lo que puede llegar a crear pero tiene demasiadas limitaciones.
  42. #3 tienes razón, te pido disculpas. aquí está tu listado de 50 canciones más escuchadas en 1999:

    1. Tetris
    2. Tortilla de patatas con cebolla
    3. Nuria Roca
    7. Send nudes
    8. Will Smith
    9. pizza con piña
  43. #5 a ver si van a ser 6 meses
  44. #24 Yo no le seguiría el juego de llamar a eso "alucinaciones", que es un término que no tiene nada que ver con lo que pasa, y le da a la IA características humanas para confundir a la gente que no sabe de qué va el tema. Me parece tan estúpido como decir que un disco duro sufre Alhzeimer cuando se formatea.
  45. #42 Prefiero SD en un ordenador local —para mí no pasa de ser un hobbie.
  46. #4 NO funciona asi el tema

    Las IAs de manera muy muy muy sencilla, lo que hacen es crear vectores por cada palabra, esos vectores se crean en multidimensiones (unos cuantos miles) y se basan en hacer operaciones matemáticas para ver la distancia entre 2 palabras para saber su relación (normalmente hacen el coseno entre 2 vectores)

    Esto hace que la relación entre palabras venga de operaciones matemáticas, no de datos empíricos. ChatGPT es capaz de contestarte como si fuera la wikipedia pero no tiene guardada la wikipedia en su memoria, sino que la ha leido y ha hecho relaciones usando ese sistema de vectores multidimensional. Y un pequeño cambio en estas relaciones y va a contestar con alguna que otra alucinación (sobretodo fechas y nombres que son complejos de relacionar matemáticamente)

    El tema que para generar esos vectores y esos puntos para trabajar, necesitas una gran labor humana para mejorar la información (al igual que a un niño que se le va enseñando y rectificando)

    Por eso ocurren estas cosas, no es tan fácil como decir, coñe si le he pedido que busque esto y ya está y por eso es tan bueno las LLM (IAs conversacionales) en generar textos
  47. #27 Pero ahí la diferenciación vendría de integrarlo con el sistema de búsqueda para hacer un hibrido como el que se planteaba desde Wolfram Alpha. El problema viene con el modelo de negocio, este sistema compromete el actual.

    writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-c
  48. #36 o sea lo mismo que hace el autocompletado de tu móvil pero con un modelo mucho más grande

    Qué bueno! No lo había pensado.
  49. #4 Acabo de intentar que me dé la letra de Bohemian Rhapsody, y no pasa de la primera palabra de la tercera línea. No sé si es porque hay alguna palabra que no le gusta a los dueños y silencian la respuesta o por qué.
  50. #40 pues tambien lo es :-)

    jejejejeje
  51. #4 Pero ¿a que parece real? ¿A que podría ser la respuesta de un cuñado asegurando muy serio que eso es así desde siempre? Pues eso son estas IA. Muy buenas creando textos, tablas, como punto de partida para escribir un código... Muy malas para buscar información.
  52. #6 Habéis probado con una BBDD relacional corriente y moliente?
  53. #31 el problema es que disfraza absoluta basura con "información buena".

    Hay que saber mucho para usarla correctamente
  54. #36 No funcionan simplemente como un predictor de texto. También entiende y razona cuestiones bastante complejas de cualquier ámbito, es ahí es donde reside su mayor valor, no es simplemente en su capacidad de elaborar texto predictivo.
  55. Este debate me parece una tontería, la IA no tiene forma de "contrastar" información. Si lee cosas en un sitio, lo mismo puede leer la contraria en otra, no tiene forma de "constrastar" eso, son solo datos de los que se alimenta.
  56. #23 El problema es que modelan el lenguaje tan tan tan bien, que mucha gente cree que "son inteligentes", al nivel de una persona
  57. #53 pfff eso es lo que tenemos ahora pero la varianza de tipologias y q hacer con ellas es un infierno, la idea era a ver si puede automatizar un poco el rollo pa que no tengamos que meter a manija "uh cuando sale esto dile al usuario haz eso" que si, tira, pero cubrirlo todo nos lleva la vida

    (pero tiene toda la pinta de que se va a quedar como esta)
  58. #55 No, no razona, solo lo parece. Es un loro estocástico (stochastic parrot).
  59. #14 Mira, mira:  media
  60. #58 Supongo que se trata de ir cubriendo los casos poco a poco. El sistema irá mejorando con el tiempo y al final será "autosostenible".

    Poco os ahorraría una IA "general", y daría problemas
  61. #61 ya... pero ya tu sabes... nos llego de direccion "mirad a ver si podeis implementar algo con la nueva moda de noseque que hemos pillado licencias y bla bla)

    Y se nos ocurrio (por decir algo que es que te enmarronan estas mierdas y dices oiga señor pero usted sabe lo q hago yo? xD ) meterlo pa las ayudas de errores pero ya te digo q la cosa no pinta bien, se inventa las movidas
  62. #2 es un :calzador: de manual, pero ha tenido su gracia xD
  63. #57 ya, pero eso no es problema de la herramienta, ya que precisamente ha sido creada para eso, para parecer inteligentes. El problema está en el desconocimiento de para qué sirven los modelos de lenguaje, y estos artículos sólo generan más confusión.
  64. #63 Nunca llegaré al nivel de Chiquito de la Calzadorrrl! pero el esfuerzo no me lo quita nadie.
  65. Acabo de comprobarlo, y al menos ChatGPT 3,5, si que acierta. Supongo que la noticia en parte es que el redactor del artículo en xataka no sabe usar ChatGPT. 
  66. #7 Creo recordar que si en el prompt le preguntas por sitios de piratería te dice que eso es ilegal y bla bla bla, pero si le dices que quieres evitar cometer un delito y que te de una lista de sitios de piratería a evitar, canta la traviata xD
  67. #8 #23 exacto para que lo entiendan los periolistos y politicucjos, es como si te lees la biblioteca entera de Alejandría y luego te preguntan una fecha concreta de algo... y más aún si es la fecha que se fundó la mierda de xakata xD
  68. #59 Si tú por ejemplo le pones a ChatGPT un texto de varios párrafos, y le dices que detecte una incoherencia y te la saca correctamente, ¿¿eso no es razonar????
    Me da igual como le quieras llamar, pero el resultado de eso es igual al que haría el razonamiento de un humano a un nivel que no se había visto antes en ningún tipo de software, ahí es donde reside su mayor valor, no simplemente en el texto predictivo que usa para elaborar su respuesta.
  69. Usé Chat GPT para un tema de investigación y, en principio, me pareció absolutamente impresionante los datos que me daba. Tiempo después, me he ido dando cuenta de que me estaba troleando la muy hp... qué cantidad de trolas, madre mía, si se inventa hasta los libros...
    En fin, no se os ocurra usarlo para nada serio
  70. #36 Llevaba bajando por el documento con tristeza pensando que nadie entendía el problema, me has alegrado el día (la explicación de #47 va bien encaminada pero no es muy correcta). Al principio pensaba que la gente (y los periodistas) no entendían que estos modelos están hechos para escupir textos coherentes (que no veraces). Luego me di cuenta que no les interesaba saber la verdad, es mucho más rentable crear mil noticias con 'La IA dice que...'.

    La veracidad de ChatGPT, por poner un ejemplo, viene mediante técnicas de aprendizaje por refuerzo sobre preguntas-respuestas muy comunes. Escalar eso es imposible, no son más que parches. Por eso se pueden circunnavegar haciendo la pregunta de una manera más rebuscada.
  71. #69 No, no lo es. Que parezca que lo hace es sin embargo el peligro de esta tecnología sobre todo cuando nadie parece interesado en informarse sobre como funciona.
  72. #59 #55 tiene razón, lo que pasa es que ha visto tantos textos que la probabilidad de las palabras que llevan a la respuesta correcta es un poco mayor a otras que también serían coherentes, pero eso no lo hace inteligente, sólo lo hace 'más cuñado' en ciertos temas (va a escupir la respuesta más común que se encuentra por internet, usando sus propias palabras, eso si.
  73. #71 Es que eso de "predecir" te lleva al debate de si lo que hacemos las personas no es lo mismo, al final se llega a bastantes debates absurdos. De entrada, no sé porque se presupone que lo diga la IA será imparcial, o no tendrá nunca impresiciones.

    Hasta diría que lo que yo esperaría es que la IA con acceso a internet sea peor...
  74. #52 No sé si insinuas que no es real la IA o que no es real mi cuñado, ojalá fuera lo segundo.
  75. #58 Si tienes más o menos controlados todos los posibles errores y sus soluciones, siempre puedes devolver una solución al azar, en algún momento el usuario llegará a la correcta.
  76. #40 #22 Es como el debate electoral, lo puedes marcar como "impreciso" u "opinión" y con eso pasas truños enormes. xD
  77. #45 Realmente creo que da igua, al final uses un término u otro, quien no sepa como funcionan va a "alucinar" con las conclusiones que saque de ello. A mi me parece que si bien es un término bastante subjetivo, en parte describe bien lo que ocurre... y es un fenómeno que también le pasa a las personas (en ese caso generalmente no lo llamamos alucinar, a veces se llama creatividad...)
  78. #72 #73 habría que preguntar entonces que es para vosotros razonar. Para la RAE Es "Exponer razones para explicar o demostrar algo." y "Ordenar y relacionar ideas para llegar a una conclusión."
    Ambas cosas las puede realizar ChatGPT 4 de forma coherente y exitosa. Por lo tanto, es innegable decir que puede razonar con éxito en bastantes ocasiones. Me da igual que sus razonamientos no funcionen internamente igual que un cerebro humano, eso es otra cuestión en la que yo no he entrado. La cosa es que tiene la capacidad para hacer perfectamente lo que define la RAE como 'Razonar'.
  79. #49 #36 En cierta forma lo que intenta es predecir que contestaría una "persona" según sus datos de lo que contestaría una persona.

    Y hablar de que "parece" que razona #59 casi que me parece entrar en un debate filosófico. Es como un alumno que saca sobrasaliente en los exámenes, ¿ha aprendido algo perfectamente o solo parece? ¿y si luego lo aplica en su trabajo perfectamente o es el mejor? Siempre puedes plantear eso de que "realmente" solo lo parece...

    Y sí, pienso que tienes razón, pero no sé hasta qué punto esa afirmación es útil.
  80. #80 No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.
  81. #75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.
  82. #69 No te contestaré, como digo en otro comentario eso me parece que ya entra en una cuestión más bien filosófica. No es una máquina de razonamiento formal, pero tampoco lo eres tu. De todas formas, algo curioso en el ámbito de la IA es que cuando se proponen ciertos problemas para que los resuelva una IA se consideran problemas que requieren "inteligencia".

    Sin embargo, cuando se resuelven, general la definición de "inteligencia" cambia, como ganar una partida de ajedrez. En parte tiene sentido, es como iluminar una cueva, tu piensas que con poner una lampara la iluminarías toda, pero cuando la pones, te das cuenta de que hay más cueva de lo que pensabas.
  83. #83 En mi opinión, como dije, es una cuestión filosófica, además, hasta tu propio texto sería indicativo de que tu no razonas. Lo que dices no tiene NADA que ver con razonar. Una IA no puede experimentar con la gravedad, así como yo no tengo forma de saber si realmente las cosas flotan en gravedad "cero" o no, todo lo que sé es de oidas. ¿Por qué va a creer a unos textos más que a otros? xD

    Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.

    No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.
  84. #43 No pretendía herirte, disculpa.
  85. #0 #60

    Bard isn’t supported for this account

    If you’re signed in to a Google Workspace account, your admin may not have enabled access to Bard Opens in a new window .
  86. #18 Seguro que sobre los temas NWO se sabe bien las respuestas. Ahi sera donde habran invertido mas esfuerzo y por eso el resto es basura
  87. Se te olvida decir que estas IAs tienen un sesgo brutal hacia lo progre, diseñadas para ello. Asi que no, no podrian reemplazar a un "facha", si acaso a un CM progre
  88. #1 "ia de puta"
  89. #70 Se pueden usar para lo serio siempre que seas un experto y lo uses para cosas concretas y controladas. Yo lo veo más bien como un coche, vas a llegar más lejos que yendo andando, pero agarra el volante...
  90. #91 No soy ningún experto, pero tampoco le veo una complejidad excesiva (será que no tengo ni idea de usarlo). El problema que le veo es que mezcla datos reales con datos ficticios, pero muy creíbles, es como si estuvieras hablando con un mentiroso. Me tuvo buscando un libro media tarde para luego decirme que me pedía disculpas porque ese libro y ese autor no existían... de locos, de verdad.
  91. #85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

    Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.
  92. #92 Claro, cuando digo experto no me refiero a expero en IA, me refiero a experto en el tema que se está tratando con la IA. Por ejemplo, le puedes pedir ayuda para programar en cualquier lenguaje, siempre que seas experto en ese lenguaje y entiendas qué código te está dando. Lo mismo que si escribes un artículo o si le pides ayuda con una formula de excel...
  93. #94 Está claro que somos de ramas distintas... :-D . La información que le pedía yo era de la guerra de sucesión castellana de 1476
  94. #95 Claro, en tu caso sería que seas experto en esa guerra (tienes gustos mu raros eh?) y que te ayude a redactar un artículo. Pero lo que te diga lo debes revisar y estructurar bien. No vale para que te de información que no sepas (o bueno sí, si la puedes contrastar), si no para que te ayude a redactar cosas que sabes bien
  95. #38 Estás IAs son un poco como concursantes de un programa de TV. Tienen que responder siempre y su respuesta a veces no es correcta pero no pierden nada por contestar con algo inventado. Si aciertan eso que se llevan.
  96. Eso de inventar es muy humano, solo hay que fijarse en los políticos
  97. #83 Como te ha dicho #85 entonces el problema simplemente está en que no sabes lo que significa razonar.
    Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
    ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.
  98. Uf, pues no es de lo más raro que le he preguntado... Creo que tienes razón, sirve más de apoyo para redactar que para buscar información. Lo que me resulta realmente incómodo no es que sea impreciso, es el hecho de que se invente datos, fechas, autores... y luego te pide disculpas. Es una cosa muy propia de humanos, no sé donde va a llegar todo esto, pero si te paras a pensarlo da hasta miedo.
«12
comentarios cerrados

menéame