Podcasts

285: Gemini y GPT-4o: Nuevas Fronteras y Controversias en IA

En este episodio, exploramos los nuevos LLMs de Google (Gemini) y OpenAI (GPT-4o), los problemas generales de los LLMs, los acuerdos de licencia con editoriales y los aspectos controvertidos de los recientes anuncios. ¡Acompáñanos para descubrir más!

Productos mencionados:

Enlaces a las noticias destacadas:

Transcripción Automática

[MÚSICA] Bueno, ya por fin estamos llegando otra vez como que al límite de nuestras notas, que estábamos un poco atrasados y todavía tenemos muchos más por cubrir.

Pero yo creo que en estas últimas semanas hemos tenido bastante revuelo con las últimas versiones de los asistentes o de la inteligencia artificial de Google y de OpenAI.

Y no sé por dónde empezar, pero empecemos primero con el de OpenAI.

No sé si viste estos videos que mostraban como esta asistente con esta voz seductora.

La voz.

Pero lo que ha pasado es que OpenAI ha saltado un nuevo modelo, que es la versión Omni de GPT-4.

Y esta versión Omni, lo que quiere decir es que ya no solamente interactúa a través de texto, sino que también puede interactuar a través de voz, interactuar también a través de imágenes.

Entonces, le puede mostrar como que lo que mostraban era un video de una voz de una mujer, como que sonaba muy como hasta coqueta, seductora, cuando le estaba hablando, respondiendo a los mensajes.

Y le mostraron, digamos, con la cámara del celular, le decían que estoy viendo y el GPT-4 o podía responder, ayúdame a resolver, ¿cómo le explicarías este problema de matemáticas a un niño?

Entonces, trataba de demostrar cómo estos modelos ya están interactuando, sí, como que ya como una forma más natural.

Y obviamente, hasta el mismo, en el mismo demo, habían fallas como que mostraban que, ay, no, bueno, ahora te estoy mostrando una cosa diferente, no sé cómo que se refería a lo que no era.

Entonces, y acá el otro problema que hubo con esto es que, antes de empezar el aviso, Sam Altman hizo un tuit que decía, her, nadie te dice, ¿vos viste esa película?

Sí.

Sí, la he visto, sí.

Y esa película es de esta inteligencia artificial hablada por Scarlett Johansson.

Y la voz de esta que mostramos en el demo es muy parecida al de ella.

Entonces, al final tuvieron que desconectarla porque ella demandó que están usando la voz de ella sin su permiso.

Acá una investigación del Wall Street Journal y todos ya dicen que en verdad ellos contrataron a una actriz que no es la voz de Johansson, que es muy parecida, pero que no es la de ella.

Pero al final tuvieron que quitarla porque, pues, por la demanda y por, no sé, como que se metieron en todo ese lío, como que ellos mismos por insinuar de que es her.

Entonces, sí, ese fue el primer– Sí, hay que comentar que si habéis visto la película Her o ella, no sé cómo lo habrán traducido en español, pero con Scarlett Johansson, la verdad es que la voz era muy, muy parecida.

Yo vi también la demo de Google y era el mismo tono de voz, la misma manera de hablar que en la película.

Porque la película va sobre, bueno, sobre una especie de inteligencia artificial y, bueno, muy parecida a lo que es esa inteligencia artificial de Google.

Y realmente era incluso demasiado parecido.

Y yo creo que ahí sí que no sé si es una voz muy buena, muy seductora, como dices tú.

Es buenísima esa voz y la de Scarlett Johansson también.

Pero creo que demasiado parecida.

Y sí que entendí todo el escándalo y no sé, yo creo que de hecho, aunque no sea Scarlett Johansson la que hizo de la voz, la actriz de la voz, yo creo que se aproximaban demasiado.

Creo que ahí rozaron un poco el límite.

Sí.

Pero creo que ese fue un poco menos polémico que lo que pasó con Google.

Y voy a tratar de resumir todo lo que anunció Google aquí.

Pero después entramos un poco más en también la polémica que no sé si la has escuchado, pero ahí te la presento.

Pero en el Google I/O, básicamente el foco de ese Google I/O fue un evento como que de dos horas, larguísimo.

Volvías hasta la gente como que bostezando en la audiencia.

Y es inteligencia artificial en todo.

Como había una función que dicen que ellos que corren dispositivo y es que siempre está escuchando tu conversación.

Y si la conversación que estás teniendo suena como que te pueden tratar de estafar, te mandan una notificación al celular diciendo, eso puede ser una estafa, deberías colgar.

Esas son de las que también tienen un poco de miedo, de privacidad, como que te estén escuchando toda la conversación y detectando eso.

A mí, yo también le veo un lado positivo a eso, que para una persona mayor, que esas personas empiecen a confundir, como que, ah, sí, por favor, ve a esta tienda y cómprame 1,000 dólares en tarjetas de regalo y las mandas por correo a tal cosa.

Y me das como que todas estas instrucciones así súper, que si las puede detectar, pues, que pueda ayudar a una persona.

Si una persona que está cayendo y se las puede ayudar, me parece bueno.

Pero también me parece un poco como que invasivo saber que están «escuchando» entre comillas todo lo que estás hablando en el celular.

Hubo otro también así hablando de protección, que es usando inteligencia artificial pueden detectar o quieren tratar de detectar cuando tu celular se lo han robado.

Entonces, un ejemplo, si estás con positivo, estás cambiando una dirección y de la nada hay un movimiento muy rápido en la dirección opuesta, lo que hacen y se ha desbloqueado tu celular, es que lo bloquean de una y no dejan, pues, que se desconecten.

Y así como que así de otras tenden de desconectar como de la red y todo, no lo van a poder hacer con que quede esta protección de activación ahí puesta.

Entonces, es como que me parece interesante este uso.

No sé si vaya a tener muchos falsos positivos como, no sé, alguien haciendo ejercicio o algo por el estilo, pero está como para tratar de evitar el robo.

Y por fin en Android han implementado algo que Apple hace mucho tiempo que es para desincentivar el robo y es que cuando lo tienes en este modo de robo, te toca, pues, para que el celular lo puedas volver a utilizar, te toca usar tu usuario y el usuario cuando se añade tu cuenta de Gmail para poder volverlo a activar el celular.

Entonces, estás hablando de limitar el robo de celulares de esa manera también.

Sobre lo que me pareció bastante interesante, yo creo que Google ha hecho, hizo como, internamente han hecho como un brainstorming.

Ahí han dicho, vamos a poner todas las posibles ideas en las que podemos utilizar inteligencia artificial en el día a día.

Y ahí las mandaron todas, como tú dices, creo que fue un poco incluso aburrido todo.

Porque es básicamente en cualquier cosa que se les ha ocurrido utilizar inteligencia artificial, ahí la han puesto básicamente.

O bueno, esa fue la sensación que me dio.

Sí, sí, sí.

Y es así como, básicamente, también ya van a integrar este Gmail y lo van a integrar en Android en sí.

Y vas a poder interactuar mucho más profundo con el sistema operativo.

Hacer el Gmail, ya va a tener el Gmail integrado que va a poder, vas a ver qué tienen tus correos y vas a poder, en teoría, preguntarle cosas.

Entonces, un ejemplo que daban es, si vos en tu correo, tenés todos tus, tenés tus tiquetes de avión y tenés tus hoteles, le decís, yo voy a ir, basado para el viaje que voy a tener el próximo mes, génerame un itinerario.

Y de generar el itinerario, te dará cosas que puedes hacer, donde puedes ir a comer, basado en toda la información que ya saben de tu correo.

Entonces, en este inteligencia artificial metí aquí.

Y donde empieza a aparecerse lo que hablamos de nuestra charlgpt y el 4 ovni, es que tiene esto que se llama el Project Astra, que es este inteligencia artificial, otra vez, como multimodal, no solamente a través de texto, que el objetivo es que se vuelva como que tu asistente.

Entonces, ellos mostran un ejemplo de alguien como caminando como con unas gafas inteligentes y con el celular.

Entonces, vas moviendo el celular por todo el cuarto y después les preguntas, ¿ah, y dónde dejé mis gafas?

Y si el celular ha visto las gafas, ver las imágenes que ha visto y te dice, ah, las dejaste encima del escritorio.

Entonces, como que de esa forma.

Y lo que mostraron ahí, pues, es como que el uso interesante de esta parte, era cuando se ponían las gafas inteligentes, como básicamente una versión nueva de Google Lens que la mostraron, pero no la mencionaron en ninguna parte.

Y es que puedes tener como siempre, asistente siempre está viendo lo mismo que estás viendo vos.

Entonces, le puedes hacer preguntas, ¿ah, y dónde dejé yo tal cosa?

Y como ha visto todo lo que has hecho vos todo el día, puede decirte, ah, lo dejaste en tal parte.

Este es como que el mismo concepto que hablamos de Chagipiti 4.0, pero hecho por Google.

ALEJANDRO GONZÁLEZ: Ahí lo que a mí más miedo me da siempre es cuando es hecho por Google, es siempre pensar que el negocio principal de Google es la propaganda, ¿no?

Y cómo la privacidad, no sé, hasta qué es lo que recopilan, qué es lo que no recopilan, que estén no solo escuchándote las voces, sino analizando lo que tu cámara está viendo.

No sé qué parte se hace solo en el dispositivo, qué parte se tiene que procesar en la nube, pero no sé.

Me da la sensación de que vamos a tener el Big Brother viendo, controlando todo lo que hacemos todavía más de lo que nos contraron hoy en día.

Esa es mi sensación.

Tampoco sé hasta qué punto esto va a ser así, pero no sé tú cómo lo ves.

Sí, ahorita hablemos de una cosita más.

Y no sé si has visto, yo estaba en la versión adelantada de Google.

Entonces, cuando yo buscaba en Google algunas cosas, ya me mostraba como que este resumen de AI.

Y lo que anunciaron es que también lo están activando todo el mundo.

No sé si a vosotros ya te lo activaron o no.

O vos no estás usando Google.

Es que utilizo DuckDuckGo por la privacidad, es eso mismo.

Aunque a veces miro Google de vez en cuando, pero bueno, todavía estoy ahí.

Sí, a mí yo lo he estado, yo lo tengo activo desde hace ya como, no sé, como 4 o 5 meses.

Y casi nunca uso los resultados.

Algo que sí me ha gustado de esa versión es que cuando vos buscas una palabra y entras a un link, te llevan directamente en ese link a la parte donde estás resaltando.

Entonces, digamos, si vos buscas una receta o algo específico, esas páginas que tienen como que 40 páginas de historia, después como que lo que te interesa está en la parte de abajo, te lleva directamente a esa parte de la página.

Entonces, esa parte me gustó.

Pero la otra parte de la polémica de Google es con estos resúmenes que han hecho.

Porque uno, bueno, uno está en lo que habíamos hablado la última vez, que van a fomentar que la gente entre menos a las páginas y simplemente tengan la respuesta ahí mismo.

Y tiene ese problema.

Pero el otro problema es que se han dado cuenta de que no es muy bueno este resumen.

Entonces, alguien le preguntó, ¿cuántas piedras se debe comer uno al día?

Y la asistente dice, según la información, uno debe comerse entre 2 a 3 piedras al día.

Y como que, y después cuando ves las fuentes y todo eso, como un artículo del The Onion, que si la gente no sabe qué es el The Onion, es como que este como periódico de satira que hay.

Y después hubo otra persona que le preguntó, ¿cómo hago para que los ingredientes de la pizza no se me muevan mucho cuando estoy comiendo?

Y dice, puedes usar como que tantas cucharadas de ega o pegante no tóxico en la salsa.

Y cuando ves la fuente de eso, era un chiste de Reddit.

Entonces, es acá donde empieza la apología que Google, en teoría, que es esa fuente que trata de darte la verdad, como que con este, ha tenido pues, en un resto de entre los tratados de quebrar, pues, han tratado de hacerle todo este tipo de preguntas que te generan respuestas que no tienen sentido.

Y acá es donde yo me llamo a una pregunta un poquito más grande y es, que no sé si esos large language models son la respuesta para esto.

Porque, no sé, te doy mi idea y vos me respondes a ver qué.

Porque como funciona esto es que ellos cogen todas las palabras que hay en el, básicamente todo el internet de palabras, las cogen y vos haces una pregunta y ellos dicen, esto, este conjunto de palabras que vos diste, lo más probable es que se aparecía esas palabras que yo tengo en mi base de datos, por decirlo, y te da una respuesta basada en eso.

Entonces, lo de piedras, como no es una pregunta que alguien va a hacer normalmente, la referencia que tiene ese modelo de piedras es ese artículo de The Onion.

Y entonces, te va a responder basado en eso.

Porque creo que alguien no pregunta, entonces, lo más probable para el modelo, el modelo no sabe qué es verdad y qué es mentiras.

Entonces, básicamente en lo que encuentra, en el formato que tiene relevante.

Entonces, cómo pueden hackear, entre comillas, esos modelos es así, como haciendo preguntas que alguien en verdad no se preguntaría porque son, pues, como que obvias hasta cierto punto.

Pero cuando encuentras una respuesta, te va a contestar una respuesta que puede ser, no sé, lo del pegante también pudo haber sido alguien haciendo fotografía de comida y que para que todo quedara perfectico, le decía, para que queden bien las fotos, te toca ponerle pegante, por ejemplo.

Y entonces, como que nadie va a preguntar cuánto pegante se le echa la pizza, va a buscar y va a decir, yo vi que el pegante se le echa esto, pero en un contexto diferente.

Y el modelo no sabe distinguir muy bien el contexto de lo que es verdad y el no puede enseñar la verdad.

Entonces, no sé si esos modelos en algún momento vayan a poder ser como buenos para esto.

Como que dado que el búsqueda puede decir, la verdad es esto y a partir de ahí generar, sino que es como que todo el conocimiento está ahí.

Pueden ser chistes, pueden ser cosas completamente por fuera de contexto, pueden ser cosas.

Entonces, esos chats, como para mí, para este uso de generar verdades de respuestas a preguntas que tienen una respuesta como que objetiva, no les veo mucho futuro.

No sé.

Sí, es que estos modelos, hay una cosa, bueno, no pueden distinguir lo que es ironía, ni tampoco pueden, a veces el contexto, a veces no pueden recoger completamente el contexto.

Como dices tú lo del pegamento de las pizzas, pues dentro del contexto tendría sentido, pero fuera del contexto no tiene sentido.

Y la ironía de un chiste, obviamente, por ahora no la entienden.

No sé si esos modelos van a poder llegar a ese punto, pero yo creo que es muy difícil entender la ironía.

Y yo creo que esto es uno de los peligros también que tenemos con estos modelos.

No sé.

El internet está lleno de ironía, está lleno de noticias falsas, está lleno de mil cosas.

Y esos modelos se están ahora alimentando de todo esto.

Entonces, no sé cómo van a poder hacer esas distinciones.

Sí, sí, sí.

Esa es la parte que acá donde yo estoy, pues, no sé, como que obviamente el futuro me puede probar completamente erróneo.

Pero yo donde veo el valor que yo le veo a esos large language models o esos modelos de lenguaje grandes es para poder ser la interfaz con un humano.

Como que para poder entender lo que la persona está diciendo.

Una persona no se dice, ah, quiero ir para allá.

Como que esas palabras como en sí no destinen nada, pero como que esos modelos se pueden traducir eso a un lengua, a otro, pues, a un– lo pueden, sino a otro lenguaje entre sí.

Pero para mí el futuro es como que en modelos pequeños, específicos de conocimiento detallado.

Entonces, puede haber un modelo que sea experto en la constitución de Estados Unidos.

Un modelo que sepa cómo programar en X o programarla.

Un modelo que sea bueno para ayudarte a transformar tus escritos.

Un modelo que sepa como que entender números financieros, con que sean modelos más pequeños, pero que su entrenamiento y su conocimiento estén limitados a una pregunta para poder en verdad ser como una fuente de verdad y no como tratar de por probabilidad de darte algo que pueda que no tenga sentido.

Porque para mí ese es donde estoy viendo el futuro.

Y porque yo, pues, no sé.

No sé si va a estar bien o mal, pero no sé.

¿Has probado el chat GPT nuevo?

¿Como has probado uno de esos modelos nuevos o todavía no?

No, todavía no.

Todavía no.

Pero lo que dices tú, la idea de limitar estos de agencias artificiales para diferentes partes, creo que esa puede ser la solución.

Porque la verdad es que, así hablando también de otra noticia que hoy esta semana, es que, por ejemplo, Meta va a empezar a utilizar los mensajes públicos de Instagram, de Facebook, para entrenar su inteligencia artificial.

Y, bueno, las redes sociales están llenas de mensajes de cualquier cosa.

Entonces, esto a mí me hace mucho pensar que estamos hablando del modelo Google o del modelo de chat GPT, que es el que está basado también en Microsoft, el Copilot.

Y ahora Meta está planteando, o está no planteando, sino está empezando ya a trabajar en esto, en alimentar de su modelo de inteligencia artificial de todas las redes sociales, que maneja de todas las partes pública que tú publicas, de fotos públicas, de el texto de las fotos público.

No van a entrar tus mensajes privados, obviamente, pero todo lo que publicas va a alimentar a su inteligencia artificial.

No sé qué puede llegar a salir de ahí.

No sé cómo lo ves tú esta parte, pero yo lo veo como puede– Es una receta para desastre, no sé.

Sí, yo igual, yo todo para mí, eso es un poco drástico en mi forma de pensar, pero todo lo que está público en internet, a mí es como que lo van a coger, como que si no lo usaron, ya lo van a usar.

Como si yo puedo acceder a eso sin tener que pagar, sin tener que pasar una inscripción o algo privado, como si cualquier persona lo puede ver en público, entendería que lo puedan usar para ese tipo de cosas.

Y seguro alguien ya lo ha usado, como que alguien que ha hecho scraping de páginas de internet, scraping de Instagram, scraping de Twitter.

No sé, yo siento que parte también de todas esas limitaciones de APIs que puso Reddit, limitaciones de APIs que puso Twitter y todo eso, fue en parte por eso, porque si no que todo el mundo estaría usando esos APIs para extraer todo el contenido y entrenar sus modelos sin pagar extra.

Entonces, no sé, esa parte la entiendo.

Obviamente, ya sería un problema si tenían sus mensajes privados, pero la parte pública la entiendo.

Como que no– Pero la cosa es que lo que la gente escribe públicamente en el Facebook, mensajes de odio, todo esto, bueno, puede hacer que estos modelos pueden ser como una bomba.

Básicamente.

Sí, sí, en ese sentido, sí me parece como que lo mismo que te dije ahorita.

Porque por eso yo cada vez que sigo usando más estos modelos, creo menos en esta parte de poder dar la verdad y como– Sino ya le creo– Sí, a los large language models, creo que van a llegar un momento donde puede que estén más limitados, al menos que después sean como una fuente de verdad.

Que no he escuchado de Perplexity, no he escuchado de este Perplexity.

Perplexity es este modelo que creo que está medio basado en el OpenAI de chatGPT, pero lo que han hecho es, le hacen como unos cambios por dentro, donde uno, tratan de que las respuestas se basen en referencias y que no sea solamente lo que tiene el modelo entrenado.

Y dos, tratan de que sea mucho más conciso.

Entonces, cuando estás tratando de resumir información, cuando estás tratando de buscar información factual, este Perplexity creo que es de las mejores opciones.

Creo que tiene una versión gratis y te recomiendo probarla.

Voy a poner aquí en las notas del show una comparación que hizo el Wall Street Journal de cinco modelos de inteligencia artificial.

Y cómo comparar uno con el otro.

Y creo que Perplexity creo que sale de primero en la parte de para responder a hechos.

Y creo que eso es un mecanismo diferente y creo que este puede ser un camino a considerar.

Pues, sí, a mí Perplexity me parece bastante interesante.

Aunque en algún momento no creo que lo va a probar, creo que en ese momento me puse a pagar el ChatGPT 4, porque estaba ya haciendo una aplicación y la verdad, para programar, ha mejorado muchísimo.

Como que en dos fines de semana he podido casi que montar un app por completo y sí, sí, ha ayudado muchísimo.

Y así hablando, volviendo al ChatGPT, al OpenAI, no sé si leíste esta semana también la noticia que Vox Media, que es una de las compañías, por ejemplo, que son los dueños de Verge y el periódico The Atlantic, ha firmado un deal con OpenAI.

Y creo entender que lo que– Había habido muchas disputas últimamente de estas, la inteligencia artificial de OpenAI y Google, todo esto, que entran a Reddit, entran a todo lo que está disponible gratuitamente en internet.

Pero, bueno, aquí creo que empezaron a haber ya problemas de demandas de periódicos que no quieren que su contenido se utilice para alimentar a esta inteligencia artificial.

Y justamente vino esta noticia de que Vox Media y The Atlantic había firmado este contrato con OpenAI.

Así que básicamente están como– He leído por ahí unas críticas, están vendiendo a la inteligencia artificial.

Creo que OpenAI o ChatGPT va a poder entrar a todo su contenido para alimentar a su inteligencia artificial.

Estos básicamente son publicaciones que son bastante fiables.

Creo que las noticias las verifican antes de publicarlas.

Pero, bueno, vemos ahí también que sobre todo las grandes compañías de media están también ya metiéndose ahí a vender, supongo vender, no sé tampoco el negocio que harán, pero a hacer negocio también con ChatGPT y con OpenAI.

Sí, hay dos puntos como que uno, esto me puede parecer interesante cómo lo integran.

Porque antes puede que lo hayan entrenado al modelo en sí con esos artículos, pero no pueden reproducirlos.

No pueden como– porque ahí es donde dicen, están usando el trabajo de ellos para otra cosa.

Porque cuando es suficientemente transformativo, creo que es como si lo pueden hacer.

Pero si es como literalmente, si lo repreguntas, ¿qué pasó en las cortes la semana pasada?

Y no pueden darte la información como que del artículo porque es como que estás usando el trabajo de ellos.

Pero ahorita con eso, tal vez con estos deals que están haciendo, sí van a poder como que usar esas fuentes como algún tipo de fuente factual o de hecho, no sé cómo describirlo bien, pero entonces van a poder como que mostrar información literalmente, entre comillas, verdad, pues, según lo que, asumiendo que lo que es verdad lo que muestran estas publicaciones.

Entonces, le pueden dar una, no sé, como una forma de dar, como que de informarles la opinión al modelo.

Y hablando de esos deals, creo que ya he escuchado ya de varios.

Creo que hasta el New York Times le estaban negociando uno con otra compañía.

También está Reddit acabó de, con Google.

Creo que está vendiendo a Google todo eso.

Y tal vez por eso fue lo de– Lo de– Ah, lo de las pizzas.

Lo de las pizzas.

Entonces, sí, como que ya hay muchas compañías que empezaron a licenciar su contenido para esos modelos.

Toca ver en qué resulta esto.

Pero si no sé, yo te diría que tal vez ver ese artículo del Wall Street Journal puede ser interesante que compras los cinco modelos y que pruebes Perplexity para, porque si es una– Yo he usado Cloud, he usado el Copilot de Microsoft, he usado el Chat GPT, he usado el de Google, que ahora es Bart.

Entonces, me había olvidado que ya se llamaba Bart, ahora es Gemini.

Y Perplexity como que tiene un– es una experiencia diferente comparada con el resto.

Entonces, ahí los ponemos en las notas.

Yo igual puedo pongo todos en las notas del show, pero sí, va a ser interesante.

Y antes de cerrar, quería cubrir algo rapidito.

Pero en este Event de Google I/O, también Google anunció el Pixel 8a, que es la versión barata de su Pixel 8.

Va a costar 500 dólares.

Tiene el mismo procesador que el Pixel 8, entonces te da un buen procesador por un precio bajo.

Pero donde han reducido la calidad es que es construcción de plástico, los bordes son un poco más gruesos, la pantalla no es HDR10, sino que es una pantalla un poco más con peores características, igual que las cámaras.

Pero el problema de este celular es que hoy en día puedes conseguir el 8 normal por 550 dólares.

Y como todo eso que le hace falta, lo tiene el otro.

Entonces, pero igual como quería mencionar este celular, creo que en papel se ve como un celular bastante bueno, pero no sé si tal vez cuando dejen de vender el Pixel 8, tal vez sí se vuelva un buen celular.

Pero en este momento, en la misma página de Google, si entras, el Pixel 8 está a 550 dólares.

Sí, justo había leído eso, vi las reviews del Pixel 8a.

Y lo que comentaron es que realmente vale la pena comprarse cuando tienes el 8 ya a precios descontados casi a veces por 50 dólares más o un poco más.

Y sí, bueno, a lo mejor ha llegado un poco tarde.

Sí, bueno, toca ver tal vez cuando lo descontinúen, se vuelva a abrir esa brecha de precios.

Pero para alguien que en ese momento no es posible recomendarlo sabiendo que por 50 dólares más conseguís un mejor celular.

Pero bueno, eso es todo por hoy.

Aquí me despido, Elder Rosado.

Y aquí Guillermo Ferrero.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Mira también
Cerrar
Botón volver arriba