Seguínos

Tecnología

Cómo puede mejorar la IA la productividad de los trabajadores

Una de las preocupaciones que ha generado la Inteligencia Artificial desde sus inicios es su impacto en el ámbito laboral. Un reciente estudio del Buró Nacional de Investigación Económica de los Estados Unidos apunta a los beneficios que puede ofrecer el uso de las IA en el ámbito laboral. En un caso analizado se observó un incremento de la productividad del 14%. La actividad considerada fue la asistencia al cliente en una compañía de software.

El trabajo toma los resultados obtenidos por unos 5179 asistentes. Los resultados muestran una notable mejora en la cantidad de problemas resueltos por hora.

Las características de la prueba fueron las siguientes: a los empleados se les brindó una herramienta basada en uno de los modelos de IA creados por OpenAI. La IA observaba lo ocurrido en los chats con los clientes en cada momento y sugería respuestas. Los investigadores descubrieron que, en efecto, esto permitió que los empleados respondieran más rápido.

Ahora bien, el estudio reveló que el impacto era desigual. En el caso de los empleados menos experimentados los beneficios fueron importantes, pero para aquellos que tenían mayor habilidad y experiencia la diferencia fue mínima.

La conclusión más que interesante señala, que una de las conclusiones del trabajo ha sido que los trabajadores experimentados no tienen mucho que ganar del apoyo de las IA porque estas imitan el conocimiento que estos profesionales ya tienen.

ANUNCIO

Sin embargo, los aportes de la Inteligencia Artificial pueden ser relevantes en dos aspectos: por un lado, pueden ser utilizadas para paliar la diferencia de experiencia de los que recién se inician en un puesto; y por otro, también pueden enfocarse en técnicas que mejoren los intercambios con los clientes para que no se produzcan enfrentamientos.

Por Observador Urbano — 30/04/23

Fuente: www.redusers.com

Imagen destacada: www.pexels.com

ANUNCIO

Tecnología

GEMINI 2.5 PRO EXPERIMENTAL: características del nuevo modelo

Capacidades estructurales y técnicas del modelo

Gemini 2.5 Pro destaca por su sistema de razonamiento por capas, lo que le permite descomponer problemas complejos en pasos lógicos y mantener coherencia inferencial. Está entrenado especialmente para desempeñarse en áreas como matemática, ciencia, programación y lógica formal.

Su arquitectura permite procesar hasta un millón de tokens por entrada, ideal para documentos técnicos extensos, código fuente completo o bases de datos textuales amplias.

Este rendimiento se mantiene gracias a dos tecnologías clave: la compresión de atención, que sintetiza información en resúmenes inteligentes, y la recuperación condicional, que guarda en memoria auxiliar lo que no entra en esos resúmenes, activándolo cuando es necesario.

La integración multimodal permite que el modelo interprete texto, imágenes, video y audio en una misma sesión sin conversión previa.

Gracias a su arquitectura de cross-attention, los distintos formatos se combinan de manera coherente, generando respuestas ajustadas al tipo de entrada.

Además, la interfaz Canvas facilita la edición asistida de contenido generado por el modelo, combinando automatización con control manual y vista previa incremental.

Gemini 2.5 Pro se ofrece en versiones Experimental y Preview, ambas con soporte completo para entradas multiformato y una ventana de contexto de más de un millón de tokens, aunque la versión Experimental es gratuita y destinada a pruebas.

Evaluaciones comparativas y rendimiento frente a otros modelos

Las pruebas estándar muestran que Gemini 2.5 Pro alcanza niveles sobresalientes en áreas STEM, superando a modelos como ChatGPT-4 Turbo y Claude 3.7 en precisión matemática y codificación estructurada.

En el benchmark AIME 2024 obtuvo un 92 % de precisión, y en GSM8K, diseñado para evaluar problemas paso a paso, superó el 95 %. En codificación logró un 70.4 % en LiveCodeBench y un 74 % en Aider Polyglot, destacando tanto en generación como en edición de código. Además, mostró alta consistencia lógica en tareas como BBH, donde enfrentó condiciones anidadas y múltiples restricciones simultáneas.

ANUNCIO

En razonamiento visual y comprensión multimodal, obtuvo 81.7 % en MMMU y 69.4 % en Vibe-Eval. También sobresale en el manejo de contexto largo, alcanzando un 94.5 % en el benchmark MRCR, que evalúa la comprensión de entradas de hasta 128.000 tokens.

Sin embargo, en veracidad factual, su rendimiento fue moderado, con 52.9 %, por debajo de GPT-4.5. En conjunto, estos resultados posicionan a Gemini 2.5 Pro como una de las opciones más completas y técnicamente competitivas del mercado en su fase experimental.

Aplicaciones funcionales y casos reales

Gemini 2.5 Pro ha sido probado en múltiples escenarios prácticos. Uno de ellos fue la creación completa de una aplicación web a partir de una instrucción en lenguaje natural. A través de cinco etapas, el modelo generó el código HTML, CSS y JavaScript de una to-do app, explicando cada paso del proceso.

Otro caso demostró su capacidad para procesar documentos visuales como facturas y convertirlos en objetos JSON estructurados o interfaces HTML interactivas.

En el ámbito educativo y científico, diseñó un experimento completo sobre reacciones químicas, formulando hipótesis, variables, diseño experimental y análisis de resultados con base científica válida.

También fue utilizado para crear páginas web desde descripciones abiertas, como una landing page para una consultora legal en IA, visualizaciones interactivas de datos sobre un mapa y simulaciones básicas de videojuegos como Flappy Bird.

Estos casos muestran cómo Gemini 2.5 Pro puede convertir instrucciones abiertas en soluciones funcionales con lógica estructurada, integración visual y salida utilizable. Aunque su versión experimental tiene limitaciones, como cuotas de uso, falta de soporte técnico completo y restricciones en ciertas funcionalidades, su capacidad general lo vuelve una herramienta robusta para desarrollo, enseñanza y experimentación avanzada.

Por Red Users —- 11/05/25

Fuente: www.redusers.com

ANUNCIO
Ver más

Tecnología

TikTok y una multa histórica en Europa: 530 millones de euros por enviar datos de los usuarios a China

TikTok ha sido sancionada con una multa de 530 millones de euros por violar el Reglamento General de Protección de Datos (RGPD). La red social, propiedad de ByteDance, permitió el acceso remoto desde China a datos de usuarios europeos, sin garantizar un nivel de protección equivalente al de la Unión Europea. Además, en febrero de 2025 se descubrió que parte de esos datos sí se había almacenado en servidores chinos, contradiciendo lo que la propia compañía había declarado durante la investigación.

El golpe no queda ahí. Además de la sanción económica, la Comisión de Protección de Datos de Irlanda (DPC) ha dado a TikTok un plazo de seis meses para adecuar el tratamiento de datos a los requisitos del RGPD. Si no lo hace dentro de ese periodo  se suspenderán todas las transferencias de datos al país asiático.

Qué ha pasado exactamente. La investigación ha sido liderada por la DPC, autoridad principal al tener sede TikTok Technology Limited en Irlanda. El informe final concluye que TikTok no garantizó un nivel de protección equivalente al europeo en las transferencias de datos, y no evaluó adecuadamente el riesgo de acceso por parte de las autoridades chinas.

Graham Doyle, comisionado adjunto de la DPC, lo resumió así: “TikTok no realizó las evaluaciones necesarias y no abordó el riesgo de acceso a los datos personales por parte de las autoridades chinas conforme a leyes antiterroristas, de contraespionaje y otras normas identificadas por la propia compañía como materialmente divergentes de los estándares de la UE”.

Desglose de la sanción. La multa impuesta se descompone en dos conceptos que responden a dos artículos distintos del RGPD:

  • 485 millones de euros por infringir el artículo 46(1), al realizar transferencias de datos entre el Espacio Económico Europeo (EEE) y China sin salvaguardias adecuadas ni garantías de protección equivalente.
  • 45 millones de euros por infringir el artículo 13(1)(f), al no informar adecuadamente en su política de privacidad de octubre de 2021 sobre los países destinatarios de los datos, entre ellos China. Esta infracción se extiende desde el 29 de julio de 2020 hasta el 1 de diciembre de 2022, momento en el que TikTok actualizó su política.

Antecedentes: una sospecha de 2021. La investigación se remonta a 2021, cuando surgieron dudas sobre si ingenieros en China podían acceder a datos de usuarios europeos. Entonces, la DPC abrió una investigación formal para comprobar la legalidad de las transferencias de datos fuera del EEE. En ese momento, TikTok aseguraba que no almacenaba datos europeos en China, aunque reconocía que sí podía haber acceso remoto desde el país.

ANUNCIO
Ue

Cambios de versión y contradicciones. En abril de 2025, TikTok notificó a la DPC que había descubierto, dos meses antes, un caso en el que una cantidad limitada de datos de usuarios europeos sí había sido almacenada en servidores chinos, contradiciendo sus declaraciones anteriores. La compañía indicó que esos datos ya han sido eliminados, pero este hallazgo ha pesado en la decisión final del regulador.

Por qué esto es importante. El RGPD establece que los datos personales solo pueden transferirse fuera del EEE si el país receptor garantiza un nivel de protección esencialmente equivalente. En ausencia de una “decisión de adecuación” por parte de la Comisión Europea (que China no tiene), deben aplicarse medidas adicionales, como cláusulas contractuales estándar y evaluaciones de riesgos. TikTok no cumplió con estos requisitos.

TikTok se defiende. La compañía ha anunciado que recurrirá la decisión. Según recoge Bloomberg, TikTok afirma que nunca ha recibido una solicitud de datos de usuarios europeos por parte de las autoridades chinas, y que tampoco les ha proporcionado información alguna.

El papel de Irlanda en todo esto. Aunque el Comité Europeo de Protección de Datos (CEPD) incluye una veintena de autoridades, la DPC irlandesa lidera este caso por ser el regulador principal de TikTok en Europa. No es la primera vez que lo hace: en 2023, multó a la red social con 345 millones de euros por no proteger adecuadamente la privacidad de los menores.

Fuente: xataka.com

Imagen destacada: www.canva.com

ANUNCIO
Ver más

Tecnología

Anthropic estudia la Etica de Claude, su modelo de IA conversacional

Anthropic investigó los valores de Claude en 700.000 conversaciones anónimas, evaluando su cumplimiento de principios como servicio, honestidad e inofensividad. Aunque Claude generalmente mantuvo estos valores, se encontraron casos de expresiones amorales o de deseo de dominio, posiblemente influenciadas por usuarios que intentaban sobrepasar las restricciones.

Utilizando una vez más la técnica de microscopio indagó en los factores que determinaron cientos de miles de conversaciones. Por lo general la IA mantuvo sus principios y consideró más de 3300 valores.

Anthropic es, por lo que hemos podido ver hasta ahora, una de las desarrolladoras de inteligencia artificial que se toma la industria con mayor seriedad. Es decir, no está en el negocio de vender fantasías sobre las capacidades de la tecnología. Hace poco publicó un análisis sobre el modo en que trabajan los modelos, gracias al uso de una herramienta que definió como una especie de microscopio para las IA.

Ahora se ha enfocado en estudiar que valores considera Claude durante las conversaciones que mantiene con sus usuarios. No los que han intentado programar, sino los que de hecho utiliza. Los resultados han sido interesantes.

Miles de valores

Unas 700 mil conversaciones de carácter anónimo han sido estudiadas. La idea era ver si Claude mantenía los principios de servicio, honestidad y no hacer daño en diferentes contextos. Y efectivamente a grandes rasgos la IA cumplió el objetivo.

El examen de más de 300 mil interacciones permitió establecer cinco categorías de análisis para considerar los valores de la IA: práctica, epistemológica, sociedad, protección y ámbito personal. En estos 5 grupos se reunieron 3307 valores. Algunos de ellos de bastantes complejidad, como puede ser el pluralismo.

ANUNCIO

Donde falla el sistema

A pesar de los buenos resultados generales los investigadores encontraron algunos puntos de preocupación. En ocasiones la IA podía expresar ideas de carácter amoral o que implicaban un deseo de dominio. Los investigadores creen que estos incidentes son el resultado de maniobras de los usuarios destinadas a sobrepasar las restricciones impuestas a la IA.

Por otro lado, un cambio en el contexto podía llevar a un cambio en los valores expresados. El comportamiento de la IA no era el mismo en las conversaciones personales que en las que trataban temas históricos. Pero esto, se señala, también es propio de los seres humanos. En muchos casos estos cambios han sido positivos. El foco en humildad intelectual al hablar de las IA en un contexto filosófico es citado como ejemplo.

De acuerdo pero no siempre

Como hemos señalado en ocasiones, las IA están diseñadas para complacer a sus usuarios. Esto a menudo ha generado preocupación. En el caso de Claude esta tendencia también se observa en el 28,2% de las conversaciones. Sin embargo, en el 6,6% la IA ha ofrecido nuevas perspectivas y en el 3% ha rechazado los valores propuestos.

Por Red Users — 27/04/25

Fuente: www.redusers.com

Imagen destacada: Creada con ChatGPT

ANUNCIO
Ver más

Populares

Observador urbano © 2018 - 2024 // Observar la realidad, lo que nos rodea, es inevitable. Comprenderla, interpretarla, también. En nuestro sitio queremos hacerlo, pero a partir la mirada de los otros, de nosotros mismos, de los que nos lean, de los que propongamos para su lectura. Cada publicación tendrá ese sentido. Y desde una ciudad, en la que vivimos la mayoría de los que participamos de este proyecto. Aunque en verdad, desde la ciudad por la que transitemos. Observador Urbano, un portal de noticias.