Seguínos

Tecnología

ChatGPT y nuestra privacidad

Vamos a desarrollar un análisis de todo lo que se debe configurar para maximizar tu privacidad en ChatGPT, el chat de inteligencia artificial de OpenAI. Partiendo de la base de que la privacidad total difícilmente existe en una herramienta que recopila conversaciones, hay algunas cosas que sí se pueden hacer para mejorarla.

Los consejos y recomendaciones se van a referir a la versión web de ChatGPT. Sin embargo, todos los ajustes están disponibles en otras versiones, incluyendo las aplicaciones móviles y para escritorio.

Usar los chats temporales

El primer recurso que debemos tener en cuenta es usar los chats temporales para conversaciones sensibles o que tengan datos que deseamos mantener privados. Pulsando el botón de Chat temporal se generará algo parecido a las ventanas privadas de un navegador.

Estos chats no se van a incluir en el historial de conversaciones de ChatGPT. Además, su contenido no se usará para entrenar los modelos GPT de la empresa, ni tampoco actualizará la memoria interna de ChatGPT.

No brindar nuestros datos para mejorar ChatGPT

Por defecto, lo que se escribe en ChatGPT se usará para entrenar a otros modelos, también nuestras grabaciones de voz o los vídeos. Sin embargo, se puede configurar la aplicación para que lo que escribamos no sea usado.

Para hacer esto, debemos entrar en la configuración de la app o web de ChatGPT que usemos. Allí ingresar en la sección Controles de datos dentro de Cuenta, y desactivar la opción de Mejorar modelo para todos. Al desactivarlo, OpenAI ya no usará tu contenido.

Se puede evitar que usen datos de otros chats

ChatGPT almacena por defecto algunos datos clave de nuestros chats pasados, y estos, a veces, pueden aparecer en nuevas conversaciones. Por ejemplo, ayer fui a hacer un dibujo y me puso una camiseta de una banda de música sobre la que le pregunté hace un mes.

Si queremos evitar que usen datos de chats pasados en nuevas conversaciones, hay que entrar en la configuración, ir al apartado de Personalización, y desactivar la opción Hacer referencia a las memorias guardadas que aparecerá activado por defecto.

Gestionar las memorias guardadas

Dentro de las opciones de Personalización donde desactivamos el uso de memorias, existe una opción para gestionar las memorias guardadas. Esto te permitirá revisar todos esos datos clave que ChatGPT ha almacenado para poder utilizarlos después.

En esta pantalla para gestionar las memorias de ChatGPT, se podrán borrar datos claves que no deseamos que se tengan en cuenta en los demás chats o directamente borrar todas las memorias guardadas que se hayan recopilado hasta ese momento.

Qué hacer con el historial de chats

ANUNCIO

ChatGPT tiene una columna de historial donde se pueden ver todas las conversaciones que hemos tenido hasta el momento con la inteligencia artificial. Estas pueden ser útiles para recuperar chats concretos de temas concretos, sobre todo si ponemos nombres identificables y nos limitamos a preguntar sobre una cosa en ellos.

Sin embargo, si no quieremos que aparezcan ahí o si no queremos que otras personas con acceso a nuestro ChatGPT puedan ver lo que hemos escrito, tenemos la opción de eliminarlas o archivarlas. Si las archivamos se mantendrán para recuperarlas cuando queramos sin que aparezcan en el historial, pero si las eliminamos la conversación desaparecerá para siempre.

Borrar todo el historial

Si lo que quieres es borrar TODO el historial de conversaciones con ChatGPT, no hace falta que vayamos uno a uno. Vamos a la configuración y en el apartado de Controles de datos, tendremos la opción de borrar el historial completo de todas las conversaciones que hemos tenido.

La gestión de enlaces compartidos

ChatGPT te permite crear un enlace a una conversación y compartirlo con otras personas. Pero debemos tener cuidado y gestionar de vez en cuando los enlaces compartidos para que estas conversaciones no acaben llegando a personas con que no queremos que las tengan.

Para hacer esto debemos entrar en la configuración de ChatGPT. Una vez dentro, ir a la sección de Controles de datos, y dentro pulsar en el botón Gestionar de Enlaces compartidos. Aquí podremos ver los activos y borrarlos.

Cuidar la información personal

Otra cosa aconsejable al usar ChatGPT es no mencionar datos personales en los chats, así como direcciones o contraseñas. OpenAI toma precauciones técnicas para que lo que escribes se almacene solo temporalmente, pero nunca está de más maximizar las precauciones para evitar que les llegue algo más de lo que debiera.

También debemos tener cuidado con las fotos que subimos y los metadatos que estos puedan tener. Incluso es mejor que si vamos a usar ChatGPT para temas laborales tengamos cuentas separadas para proyectos o separar lo personal y profesional y así evitar riesgos innecesarios.

Conocer las características de la IA que usamos

Cuesta trabajo, y tal vez mas adelante sea mas complicado, pero en la medida de lo posible, debemos conocer las App de IA que utilizamos. Leer y estudiar las características suele ser tedioso, nos pasa con las App de Redes Sociales, pero debemos hacer el esfuerzo. La mayoría de ellas son explicitas a la hora de indicar las modalidades de uso. Hoy presentamos estas indicaciones realizadas por Xataka.com pero la idea es avanzar sobre otras IA que solemos usar habitualmente, u otras que puedan ser útiles y significativas, tanto para el uso personal como laboral.

Por Observador Urbano — 20/04/25

Fuente: www.xataka.com

Imágenes: www.pixabay.com

ANUNCIO
Anuncio
Comentar

Tecnología

GEMINI 2.5 PRO EXPERIMENTAL: características del nuevo modelo

Capacidades estructurales y técnicas del modelo

Gemini 2.5 Pro destaca por su sistema de razonamiento por capas, lo que le permite descomponer problemas complejos en pasos lógicos y mantener coherencia inferencial. Está entrenado especialmente para desempeñarse en áreas como matemática, ciencia, programación y lógica formal.

Su arquitectura permite procesar hasta un millón de tokens por entrada, ideal para documentos técnicos extensos, código fuente completo o bases de datos textuales amplias.

Este rendimiento se mantiene gracias a dos tecnologías clave: la compresión de atención, que sintetiza información en resúmenes inteligentes, y la recuperación condicional, que guarda en memoria auxiliar lo que no entra en esos resúmenes, activándolo cuando es necesario.

La integración multimodal permite que el modelo interprete texto, imágenes, video y audio en una misma sesión sin conversión previa.

Gracias a su arquitectura de cross-attention, los distintos formatos se combinan de manera coherente, generando respuestas ajustadas al tipo de entrada.

Además, la interfaz Canvas facilita la edición asistida de contenido generado por el modelo, combinando automatización con control manual y vista previa incremental.

Gemini 2.5 Pro se ofrece en versiones Experimental y Preview, ambas con soporte completo para entradas multiformato y una ventana de contexto de más de un millón de tokens, aunque la versión Experimental es gratuita y destinada a pruebas.

Evaluaciones comparativas y rendimiento frente a otros modelos

Las pruebas estándar muestran que Gemini 2.5 Pro alcanza niveles sobresalientes en áreas STEM, superando a modelos como ChatGPT-4 Turbo y Claude 3.7 en precisión matemática y codificación estructurada.

En el benchmark AIME 2024 obtuvo un 92 % de precisión, y en GSM8K, diseñado para evaluar problemas paso a paso, superó el 95 %. En codificación logró un 70.4 % en LiveCodeBench y un 74 % en Aider Polyglot, destacando tanto en generación como en edición de código. Además, mostró alta consistencia lógica en tareas como BBH, donde enfrentó condiciones anidadas y múltiples restricciones simultáneas.

ANUNCIO

En razonamiento visual y comprensión multimodal, obtuvo 81.7 % en MMMU y 69.4 % en Vibe-Eval. También sobresale en el manejo de contexto largo, alcanzando un 94.5 % en el benchmark MRCR, que evalúa la comprensión de entradas de hasta 128.000 tokens.

Sin embargo, en veracidad factual, su rendimiento fue moderado, con 52.9 %, por debajo de GPT-4.5. En conjunto, estos resultados posicionan a Gemini 2.5 Pro como una de las opciones más completas y técnicamente competitivas del mercado en su fase experimental.

Aplicaciones funcionales y casos reales

Gemini 2.5 Pro ha sido probado en múltiples escenarios prácticos. Uno de ellos fue la creación completa de una aplicación web a partir de una instrucción en lenguaje natural. A través de cinco etapas, el modelo generó el código HTML, CSS y JavaScript de una to-do app, explicando cada paso del proceso.

Otro caso demostró su capacidad para procesar documentos visuales como facturas y convertirlos en objetos JSON estructurados o interfaces HTML interactivas.

En el ámbito educativo y científico, diseñó un experimento completo sobre reacciones químicas, formulando hipótesis, variables, diseño experimental y análisis de resultados con base científica válida.

También fue utilizado para crear páginas web desde descripciones abiertas, como una landing page para una consultora legal en IA, visualizaciones interactivas de datos sobre un mapa y simulaciones básicas de videojuegos como Flappy Bird.

Estos casos muestran cómo Gemini 2.5 Pro puede convertir instrucciones abiertas en soluciones funcionales con lógica estructurada, integración visual y salida utilizable. Aunque su versión experimental tiene limitaciones, como cuotas de uso, falta de soporte técnico completo y restricciones en ciertas funcionalidades, su capacidad general lo vuelve una herramienta robusta para desarrollo, enseñanza y experimentación avanzada.

Por Red Users —- 11/05/25

Fuente: www.redusers.com

ANUNCIO
Ver más

Tecnología

TikTok y una multa histórica en Europa: 530 millones de euros por enviar datos de los usuarios a China

TikTok ha sido sancionada con una multa de 530 millones de euros por violar el Reglamento General de Protección de Datos (RGPD). La red social, propiedad de ByteDance, permitió el acceso remoto desde China a datos de usuarios europeos, sin garantizar un nivel de protección equivalente al de la Unión Europea. Además, en febrero de 2025 se descubrió que parte de esos datos sí se había almacenado en servidores chinos, contradiciendo lo que la propia compañía había declarado durante la investigación.

El golpe no queda ahí. Además de la sanción económica, la Comisión de Protección de Datos de Irlanda (DPC) ha dado a TikTok un plazo de seis meses para adecuar el tratamiento de datos a los requisitos del RGPD. Si no lo hace dentro de ese periodo  se suspenderán todas las transferencias de datos al país asiático.

Qué ha pasado exactamente. La investigación ha sido liderada por la DPC, autoridad principal al tener sede TikTok Technology Limited en Irlanda. El informe final concluye que TikTok no garantizó un nivel de protección equivalente al europeo en las transferencias de datos, y no evaluó adecuadamente el riesgo de acceso por parte de las autoridades chinas.

Graham Doyle, comisionado adjunto de la DPC, lo resumió así: “TikTok no realizó las evaluaciones necesarias y no abordó el riesgo de acceso a los datos personales por parte de las autoridades chinas conforme a leyes antiterroristas, de contraespionaje y otras normas identificadas por la propia compañía como materialmente divergentes de los estándares de la UE”.

Desglose de la sanción. La multa impuesta se descompone en dos conceptos que responden a dos artículos distintos del RGPD:

  • 485 millones de euros por infringir el artículo 46(1), al realizar transferencias de datos entre el Espacio Económico Europeo (EEE) y China sin salvaguardias adecuadas ni garantías de protección equivalente.
  • 45 millones de euros por infringir el artículo 13(1)(f), al no informar adecuadamente en su política de privacidad de octubre de 2021 sobre los países destinatarios de los datos, entre ellos China. Esta infracción se extiende desde el 29 de julio de 2020 hasta el 1 de diciembre de 2022, momento en el que TikTok actualizó su política.

Antecedentes: una sospecha de 2021. La investigación se remonta a 2021, cuando surgieron dudas sobre si ingenieros en China podían acceder a datos de usuarios europeos. Entonces, la DPC abrió una investigación formal para comprobar la legalidad de las transferencias de datos fuera del EEE. En ese momento, TikTok aseguraba que no almacenaba datos europeos en China, aunque reconocía que sí podía haber acceso remoto desde el país.

ANUNCIO
Ue

Cambios de versión y contradicciones. En abril de 2025, TikTok notificó a la DPC que había descubierto, dos meses antes, un caso en el que una cantidad limitada de datos de usuarios europeos sí había sido almacenada en servidores chinos, contradiciendo sus declaraciones anteriores. La compañía indicó que esos datos ya han sido eliminados, pero este hallazgo ha pesado en la decisión final del regulador.

Por qué esto es importante. El RGPD establece que los datos personales solo pueden transferirse fuera del EEE si el país receptor garantiza un nivel de protección esencialmente equivalente. En ausencia de una “decisión de adecuación” por parte de la Comisión Europea (que China no tiene), deben aplicarse medidas adicionales, como cláusulas contractuales estándar y evaluaciones de riesgos. TikTok no cumplió con estos requisitos.

TikTok se defiende. La compañía ha anunciado que recurrirá la decisión. Según recoge Bloomberg, TikTok afirma que nunca ha recibido una solicitud de datos de usuarios europeos por parte de las autoridades chinas, y que tampoco les ha proporcionado información alguna.

El papel de Irlanda en todo esto. Aunque el Comité Europeo de Protección de Datos (CEPD) incluye una veintena de autoridades, la DPC irlandesa lidera este caso por ser el regulador principal de TikTok en Europa. No es la primera vez que lo hace: en 2023, multó a la red social con 345 millones de euros por no proteger adecuadamente la privacidad de los menores.

Fuente: xataka.com

Imagen destacada: www.canva.com

ANUNCIO
Ver más

Tecnología

Anthropic estudia la Etica de Claude, su modelo de IA conversacional

Anthropic investigó los valores de Claude en 700.000 conversaciones anónimas, evaluando su cumplimiento de principios como servicio, honestidad e inofensividad. Aunque Claude generalmente mantuvo estos valores, se encontraron casos de expresiones amorales o de deseo de dominio, posiblemente influenciadas por usuarios que intentaban sobrepasar las restricciones.

Utilizando una vez más la técnica de microscopio indagó en los factores que determinaron cientos de miles de conversaciones. Por lo general la IA mantuvo sus principios y consideró más de 3300 valores.

Anthropic es, por lo que hemos podido ver hasta ahora, una de las desarrolladoras de inteligencia artificial que se toma la industria con mayor seriedad. Es decir, no está en el negocio de vender fantasías sobre las capacidades de la tecnología. Hace poco publicó un análisis sobre el modo en que trabajan los modelos, gracias al uso de una herramienta que definió como una especie de microscopio para las IA.

Ahora se ha enfocado en estudiar que valores considera Claude durante las conversaciones que mantiene con sus usuarios. No los que han intentado programar, sino los que de hecho utiliza. Los resultados han sido interesantes.

Miles de valores

Unas 700 mil conversaciones de carácter anónimo han sido estudiadas. La idea era ver si Claude mantenía los principios de servicio, honestidad y no hacer daño en diferentes contextos. Y efectivamente a grandes rasgos la IA cumplió el objetivo.

El examen de más de 300 mil interacciones permitió establecer cinco categorías de análisis para considerar los valores de la IA: práctica, epistemológica, sociedad, protección y ámbito personal. En estos 5 grupos se reunieron 3307 valores. Algunos de ellos de bastantes complejidad, como puede ser el pluralismo.

ANUNCIO

Donde falla el sistema

A pesar de los buenos resultados generales los investigadores encontraron algunos puntos de preocupación. En ocasiones la IA podía expresar ideas de carácter amoral o que implicaban un deseo de dominio. Los investigadores creen que estos incidentes son el resultado de maniobras de los usuarios destinadas a sobrepasar las restricciones impuestas a la IA.

Por otro lado, un cambio en el contexto podía llevar a un cambio en los valores expresados. El comportamiento de la IA no era el mismo en las conversaciones personales que en las que trataban temas históricos. Pero esto, se señala, también es propio de los seres humanos. En muchos casos estos cambios han sido positivos. El foco en humildad intelectual al hablar de las IA en un contexto filosófico es citado como ejemplo.

De acuerdo pero no siempre

Como hemos señalado en ocasiones, las IA están diseñadas para complacer a sus usuarios. Esto a menudo ha generado preocupación. En el caso de Claude esta tendencia también se observa en el 28,2% de las conversaciones. Sin embargo, en el 6,6% la IA ha ofrecido nuevas perspectivas y en el 3% ha rechazado los valores propuestos.

Por Red Users — 27/04/25

Fuente: www.redusers.com

Imagen destacada: Creada con ChatGPT

ANUNCIO
Ver más

Populares

Observador urbano © 2018 - 2024 // Observar la realidad, lo que nos rodea, es inevitable. Comprenderla, interpretarla, también. En nuestro sitio queremos hacerlo, pero a partir la mirada de los otros, de nosotros mismos, de los que nos lean, de los que propongamos para su lectura. Cada publicación tendrá ese sentido. Y desde una ciudad, en la que vivimos la mayoría de los que participamos de este proyecto. Aunque en verdad, desde la ciudad por la que transitemos. Observador Urbano, un portal de noticias.