Openii puede entender, con los nuevos modelos ChatGPT con capacidad de razonamiento avanzado, donde se ha tomado una imagen con todo lo que podría involucrar en términos de privacidad.
El aspecto interesante es que la ubicación de una toma no se identifica teniendo en cuenta los datos de exif (metadatos en la foto) sino por el contexto, por señales de carretera, por vegetación, de actividades comerciales, del clima, etc.
La nueva funcionalidad de ChatGPT es un ejemplo de la capacidad de leer contenido visual, pensar en tener en cuenta el contenido visible e identificar dónde se tomó una foto tal vez publicada en Instagram o Facebook. Esta funcionalidad no es completamente nueva, pero los modelos O3 y O4-Mini parecen particularmente hábiles para identificar una ubicación que comienza desde pistas en las fotos, encontrando ciudades, puntos de referencia, restaurantes y bares que tienen en cuenta las pistas visuales delgadas.
Esta función puede ser útil en muchos casos, pero También corre el riesgo de ser usado mal. Si alguien publica una foto inocente en las redes sociales, tal vez desde su casa o en un lugar privado, un atacante podría usarla para Descubre dónde estáincluso si ha eliminado todos los datos técnicos de la foto.
El poder de geoguessing de O3 es una muy buena muestra de su capacidad agente. Bethaeen su suposición inteligente y su capacidad para acercarse a las imágenes, hacer sesos web y leer texto, los resultados pueden ser muy cariñosos.
La información de ubicación despojada de la foto y le indicó «Geoguess This» pic.twitter.com/kaqixhuvyl
– Ethan Mollick (@emollick) 17 de abril de 2025
Wow, lo clavó y ni siquiera un árbol a la vista. pic.twitter.com/bvcoe1fq0z
– swax (@swax) 17 de abril de 2025
O3 es una locura
Le pedí a un amigo mío que me diera una foto al azar
Me dieron en una foto al azar que tomaron en una biblioteca
O3 lo sabe en 20 segundos y es correcto pic.twitter.com/0k8dxifkoy– Yumi (@izyuuumi) 17 de abril de 2025
Aquí es donde el riesgo de doxing: Cuando alguien difunde la información privada en línea de una persona para ponerla en dificultad o en peligro. Con esta función, incluso una foto simple puede convertirse en una fuente de información personal.
Openii, la compañía detrás de Chatgpt, Dice que ha puesto algunos límites: Los modelos no deben dar respuestas si la solicitud se refiere a datos confidenciales o privados, y no debe reconocer a las personas en las imágenes.
Pero, y aquí está el problema – No se dice que estos filtros siempre funcionan. Y cuando se trata de privacidad, un pequeño error puede tener grandes consecuencias.
Todas las noticias sobre inteligencia artificial se recopilan en la sección dedicada de Macitynet