#SeguridadOnline

El futuro de la navegación web: Gemini llega a Google Chrome

La integración de la inteligencia artificial de Gemini en Google Chrome busca revolucionar la experiencia de navegación, transformando el navegador en un socio inteligente. Con funciones de asistencia, búsquedas más inteligentes y mejoras en seguridad, Google busca posicionar a Chrome a la vanguardia de la innovación. Esta actualización no solo simplifica tareas complejas, sino que también ofrece una protección más sólida contra amenazas en línea, marcando un hito en la evolución de las herramientas de navegación (Fuente Google).

La nueva versión de Chrome introduce el «Gemini in Chrome,» un asistente de IA integrado que va más allá de un chatbot convencional. Diseñado para trabajar a través de múltiples pestañas, este asistente comprende el contexto de las actividades del usuario. Por ejemplo, puede resumir y comparar información de diferentes sitios web, consolidar itinerarios de viaje e incluso ayudar a localizar momentos específicos en videos de YouTube. A corto plazo, se integrará con otros servicios de Google como Docs, Calendar y Maps, permitiendo a los usuarios acceder a información sin salir de la página actual. Además, las capacidades de «agente» de Gemini le permitirán realizar tareas de varios pasos en nombre del usuario, como ordenar comestibles o reservar citas, reduciendo un proceso que solía ser largo a un recorrido de tres clics.

El omnibox del navegador también se actualiza con un «Modo IA,» que permite a los usuarios hacer preguntas complejas directamente desde la barra de direcciones y recibir respuestas generadas por IA. Esta función proporciona una experiencia de búsqueda más potente y, además, ofrecerá sugerencias de búsqueda contextualmente relevantes según la página que se esté viendo. Por otro lado, la IA también potencia la seguridad en línea. Chrome utilizará Gemini Nano SLM para bloquear proactivamente nuevos tipos de estafas, como advertencias de soporte técnico falsas. También detectará notificaciones spam y ayudará a los usuarios a solucionar problemas de seguridad, como contraseñas comprometidas, con la opción de cambiarlas con un solo clic.

#Actualización #GeminiAI #GoogleChrome #InteligenciaArtificial #NavegadorWeb #SeguridadOnline #Tecnología #arielmcorg #infosertec #PORTADA

TikTok Despide a Cientos de Moderadores y los Reemplaza por Inteligencia Artificial

TikTok ha despedido a cientos de moderadores de contenido en un movimiento estratégico para centralizar sus operaciones y reemplazarlos por sistemas de inteligencia artificial, una decisión que, aunque busca optimizar costos, ha generado críticas sobre la capacidad de la IA para manejar los matices culturales y la complejidad del contenido dañino (Fuente WSJ).

TikTok está llevando a cabo una reestructuración significativa en su equipo de moderación de contenido, despidiendo a cientos de empleados en lugares como Alemania y el Reino Unido para reemplazarlos con inteligencia artificial. La compañía, propiedad de ByteDance, busca centralizar sus funciones y optimizar costos, confiando cada vez más en la IA para la detección y eliminación de contenido que viola sus normas, como la incitación al odio, la desinformación y la pornografía.

Esta decisión ha provocado protestas por parte de los moderadores de contenido, quienes argumentan que la IA, con sus inherentes sesgos y limitaciones, no puede comprender los matices culturales y contextuales necesarios para moderar eficazmente. Temen que la automatización masiva pueda conducir a una mayor exposición de los usuarios a contenido dañino y a decisiones de moderación inapropiadas o injustas.

Aunque TikTok ha afirmado que la IA ya elimina automáticamente el 80% de las publicaciones que violan sus normas, el debate sobre la ética de la automatización y la protección de los trabajadores sigue abierto. Este movimiento de TikTok refleja una tendencia más amplia en la industria de las redes sociales, donde empresas como Meta y YouTube también han recurrido a la IA para apoyar sus labores de moderación, a pesar de las preocupaciones sobre la capacidad de la tecnología para reemplazar por completo el juicio humano.

#Algoritmos #ByteDance #ContenidoDañino #Despidos #IA #InteligenciaArtificial #ModeradoresDeContenido #RedesSociales #SeguridadOnline #TikTok #arielmcorg #infosertec #PORTADA

Google Photos Podría Indicar si las Imágenes Fueron Creadas o Editadas con IA

Una nueva función en desarrollo para Google Photos podría facilitar la identificación de contenido generado o editado con inteligencia artificial, proporcionando a los usuarios más información sobre el origen de sus imágenes para combatir la desinformación (Fuente Android Authority).

Google está trabajando en una nueva función para Google Photos que hará más fácil identificar si una foto o un video ha sido alterado con herramientas de inteligencia artificial. Esta característica, descubierta en el código de la aplicación, busca mitigar el problema de no poder distinguir entre contenido real y «deepfakes». La funcionalidad, referenciada en la versión 7.41 de la aplicación con el nombre en código «threepio», añadiría una nueva sección llamada “¿Cómo se hizo esto?” en la vista de detalles de la foto. Al deslizar el dedo hacia arriba sobre una imagen o video, los usuarios podrán ver información sobre cómo se creó o editó.

El sistema podría mostrar etiquetas como «Contenido creado con IA», «Editado con herramientas de IA», «Editado con múltiples herramientas de IA» o «Contenido capturado con una cámara sin ajustes de software». También podría detectar cuando se han utilizado múltiples herramientas de edición o cuando se han combinado varias imágenes. En caso de que el historial de edición del archivo se haya modificado o no esté disponible, Google Photos mostraría un mensaje de error.

Esta función parece estar basada en Content Credentials, un sistema que adjunta un historial de ediciones a un archivo, que se mantiene incluso cuando se comparte. Esta idea no es del todo nueva para Google, que ya ha desarrollado SynthID, una herramienta de marca de agua digital invisible para identificar imágenes generadas por IA. Ambas iniciativas buscan dar a los usuarios más contexto sobre el origen del contenido visual y son parte de un esfuerzo más amplio de la compañía para promover la transparencia en la era de la inteligencia artificial.

#Android #Deepfakes #EdicionIA #Fotos #Google #GooglePhotos #IA #SeguridadOnline #Tecnologia #Transparencia #arielmcorg #infosertec #PORTADA

FBI Advierte a Propietarios de Smartphones Sobre Peligros de Phishing y Grupos Criminales

El FBI ha emitido una nueva advertencia a los propietarios de smartphones sobre el aumento de ataques de «smishing» (phishing por SMS) y la creciente amenaza de grupos criminales en línea que utilizan métodos cada vez más sofisticados para robar información y dinero.

El FBI ha lanzado una nueva alerta para los usuarios de smartphones, tanto de Android como de iPhone, sobre la proliferación de ataques de «smishing». Estos mensajes de texto fraudulentos, que a menudo se disfrazan como notificaciones de servicios como el DMV (Departamento de Vehículos Motorizados) o empresas de paquetería, buscan engañar a los usuarios para que hagan clic en enlaces maliciosos y revelen información personal y financiera.

https://twitter.com/FBIPittsburgh/status/1955026699533324540

Según un comunicado, el FBI está investigando un aumento de más del 700% en este tipo de ataques, muchos de los cuales se originan en el extranjero. Los enlaces en estos mensajes pueden llevar a sitios web falsos diseñados para robar datos de tarjetas de crédito o, en casos más graves, instalar malware en el teléfono para robar información de forma silenciosa.

Además de la amenaza de phishing, el Centro de Denuncias de Delitos en Internet del FBI ha emitido una advertencia sobre un grupo criminal en línea conocido como «The Com» o «The Community». Este grupo, compuesto principalmente por jóvenes de entre 11 y 25 años, ha evolucionado en sus métodos, utilizando técnicas cada vez más complejas para robar criptomonedas, llevar a cabo ataques cibernéticos, extorsionar y, en algunos casos, incluso cometer actos de violencia en la vida real.

Las autoridades señalan que, si bien la sofisticación de los ciberdelincuentes ha crecido, la conciencia y la acción rápida por parte de los usuarios pueden ayudar a detener estas amenazas. El FBI recomienda a los usuarios que borren de inmediato cualquier mensaje de texto sospechoso, que no hagan clic en enlaces de remitentes desconocidos y que consideren el uso de aplicaciones de mensajería con cifrado de extremo a extremo para proteger sus comunicaciones.

El FBI advierte a los usuarios de teléfonos inteligentes que no escaneen códigos QR que vienen con paquetes no solicitados u otras formas de comunicación. Pero no esperen que el FBI les dé una advertencia sin ofrecerles algunas sugerencias que deben seguir para evitar que los estafadores vacíen sus cuentas financieras:

  • Tenga cuidado con los paquetes no solicitados que contienen mercancías que usted no pidió.
  • Tenga cuidado con los paquetes que no incluyen información del remitente.
  • Tome precauciones antes de autorizar permisos del teléfono y acceso a sitios web y aplicaciones.
  • No escanee códigos QR de orígenes desconocidos.
  • Si cree que es víctima de una estafa, asegure su presencia en línea cambiando los perfiles de cuenta y solicitando un informe de crédito gratuito a una o todas las agencias nacionales de informes de crédito (Equifax, Experian y TransUnion) para identificar posible actividad fraudulenta.

#Advertencia #Android #Ciberseguridad #DelitoCibernetico #FBI #IPhone #Phishing #SeguridadOnline #Smartphones #Smishing #arielmcorg #infosertec #PORTADA

TikTok Ya No Es Seguro 🚨

Logo de TikTok, símbolo de una plataforma en debate por su contenido para menores de edad.

La App Que Era Cool Se Volvió Peligrosa 📱💔

No soy de las que se espanta fácil, pero lo que está pasando en TikTok últimamente me tiene súper preocupada. La plataforma que antes era solo bailes y trends divertidos ahora está llena de contenido que definitivamente NO debería estar al alcance de menores de edad.

El Trend «White Shampoo»: La Gota Que Derramó El Vaso 🤢

¿Qué es este trend tan peligroso?

El famoso trend del «white shampoo» es literalmente lo peor que he visto en redes sociales. Sin entrar en detalles explícitos (porque este blog también debe ser apropiado), básicamente involucra contenido sexual disfrazado que puede traumatizar seriamente a los niños que lo ven.

No es el primer trend problemático

Ya habíamos visto otros challenges peligrosos antes que también involucraban contenido sexual inapropiado. El trend del «Dior Gloss» también mostraba contenido explícito disfrazado, junto con otros «challenges» donde hombres exponían partes íntimas de manera «creativa». También hemos visto trends que ponían en riesgo la salud física y mental, contenido que normalizaba comportamientos dañinos, y «challenges» que terminaban en tragedias.

TikTok = El Nuevo Twitter/X: Mismo Problema, Peor Audiencia 😬

La diferencia que lo hace más grave

Mientras que X (antes Twitter) siempre tuvo una audiencia más adulta, TikTok está LLENO de niños y adolescentes. Hombres adultos mostrando partes íntimas y secreciones en pantalla es algo que está convirtiendo esta app en un lugar igual de tóxico que X, pero con una audiencia mucho más vulnerable. Los números no mienten: TikTok tiene millones de usuarios menores de 18 años, el contenido inapropiado se viraliza más rápido que nunca, y los menores están expuestos sin filtros reales.

El Gran Problema: Por Qué Los Algoritmos Son El Enemigo Real 🤖❌

La censura automática es peor que no tener censura

Aquí viene lo que realmente me molesta y por qué NUNCA voy a defender la censura a través de algoritmos. Estos sistemas automatizados son completamente arbitrarios y crean más problemas de los que resuelven. Los algoritmos no entienden contexto, no pueden diferenciar entre una conversación educativa y contenido inapropiado, y lo peor de todo: son súper fáciles de manipular.

Los humanos saben cómo engañar a las máquinas

Las personas con malas intenciones han perfeccionado el arte de burlar estos sistemas. Saben exactamente qué palabras usar, qué imágenes mostrar, y cómo disfrazar contenido explícito para que parezca inocente ante los ojos de un algoritmo. Mientras tanto, estos mismos algoritmos censuran conversaciones importantes sobre salud mental, educación sexual apropiada para la edad, y temas sociales que los jóvenes NECESITAN conocer.

La falsa sensación de seguridad

Los algoritmos dan a los padres una falsa sensación de que sus hijos están «protegidos» cuando en realidad están más expuestos que nunca. Es como tener un guardia de seguridad ciego que solo puede escuchar pero no ver lo que realmente está pasando.

Por Qué Defiendo la Moderación Humana Sobre la Automática 👥

Los humanos entienden contexto

A diferencia de los algoritmos, los moderadores humanos pueden entender sarcasmo, ironía, contexto cultural, y la diferencia entre contenido educativo y contenido dañino. Pueden ver cuando alguien está usando códigos o referencias que un algoritmo jamás detectaría.

La moderación humana es más justa

Cuando un humano revisa contenido, puede tomar decisiones más matizadas. Puede entender que una conversación sobre depresión no debería ser censurada solo porque menciona temas «sensibles», y puede detectar cuando alguien está siendo genuinamente educativo versus cuando está siendo predatorio.

Los algoritmos censuran lo que no deben

He visto cómo los algoritmos bloquean videos de educadores hablando sobre salud mental, mientras permiten que contenido predatorio se quede porque usa las palabras «correctas». Esto no solo es injusto, es peligroso. Los jóvenes se quedan sin acceso a información vital mientras los depredadores siguen operando libremente.

La Censura Algorítmica: Un Sistema Roto Por Diseño 🚫

Por qué no funciona y nunca funcionará

Los algoritmos son binarios: algo está bien o está mal, sin término medio. Pero la comunicación humana es compleja, llena de matices, contexto cultural, y significados implícitos. Un algoritmo no puede entender que la misma palabra puede ser educativa en un contexto y dañina en otro.

El problema de la escala

Las plataformas argumentan que necesitan algoritmos porque hay demasiado contenido para que los humanos lo revisen. Pero este argumento es falso. Si tu plataforma es tan grande que no puedes moderarla adecuadamente, entonces tal vez el problema no es la falta de algoritmos, sino el modelo de negocio que prioriza el crecimiento sobre la seguridad.

Los algoritmos censuran poblaciones vulnerables

Estos sistemas automáticos no son neutrales y la evidencia está por todas partes. ¿Quién no recuerda cuando TikTok censuró las etiquetas #BlackLivesMatter y #GeorgeFloyd, mostrando cero visualizaciones mientras alegaban que era un «fallo técnico»? Los usuarios también descubrieron que frases como «Black Lives Matter», «apoyando voces negras», y «apoyando a personas negras» eran marcadas como contenido inapropiado, mientras que términos como «supremacía blanca» pasaban sin problemas.

Pero el sesgo va más allá del tema racial. Documentos internos revelaron que TikTok literalmente le decía a sus moderadores que suprimieran contenido de usuarios considerados «feos» y pobres, porque aparentemente eso podría «asustar» a nuevos usuarios. Imagínate el nivel de discriminación: censurar a personas por su apariencia física o situación económica.

Estos sistemas aprenden de información que ya tiene sesgos, y terminan amplificando prejuicios existentes. Censuran más contenido de ciertas comunidades mientras son más permisivos con otras, creando un sistema de moderación fundamentalmente injusto y discriminatorio.

¿Qué Pueden Hacer Los Padres? Eliminar Es Mejor Que Supervisar 👨‍👩‍👧‍👦

Niños concentrados en sus teléfonos móviles, representando la preocupación por la exposición a contenido inapropiado en plataformas digitales.

La supervisión al 100% es imposible

Seamos realistas: no se puede estar pendiente de lo que ven los hijos las 24 horas del día. Es físicamente imposible supervisar cada segundo que pasan en estas aplicaciones, y mientras tanto, están expuestos a contenido que puede dañarlos permanentemente. En lugar de esta falsa sensación de control con «supervisión activa», es mejor eliminar directamente estas aplicaciones problemáticas.

YouTube Kids tampoco es confiable

Tres niños concentrados mirando sus teléfonos, reflejando la preocupación por el acceso a contenido inapropiado en plataformas como TikTok.

Y no, YouTube Kids no es la solución. Ahí pasa exactamente lo mismo: videos supuestamente para niños que son perturbadores, contenido que parece educativo pero está diseñado para confundir o asustar a los pequeños, y algoritmos que fallan igual de mal que los de TikTok. Los padres piensan que sus hijos están «seguros» viendo YouTube Kids, pero la realidad es que estos algoritmos siguen siendo defectuosos.

Mejores alternativas: Netflix, Pluto TV y plataformas curadas

Es mucho mejor que los niños vean contenido en plataformas como Netflix, Pluto TV, o servicios donde el contenido está realmente curado por humanos. Estas plataformas tienen programación específica para diferentes edades, sin la aleatoriedad peligrosa de los algoritmos de recomendación. Al menos sabes que lo que están viendo fue revisado por profesionales, no por una máquina que no entiende contexto.

Conclusión: Es Hora de Exigir Mejor 💪

TikTok se ha convertido en un espacio donde los menores definitivamente NO deberían estar, punto. Los algoritmos de censura están empeorando el problema en lugar de solucionarlo, y pretender que con supervisión se puede solucionar es engañarse. Como sociedad, necesitamos exigir moderación humana real, no soluciones tecnológicas baratas que dan la ilusión de seguridad mientras fallan en proteger a quienes más lo necesitan.

La tecnología avanza, pero la protección de menores debería ser siempre la prioridad número uno. Y esa protección no puede venir de máquinas que no entienden lo que están «viendo», ni de padres que pretenden supervisar lo imposible.

¿Qué opinas tú? ¿Has notado estos cambios en TikTok? Cuéntanos en los comentarios 👇

#AlgoritmosBias #BlackLivesMatter #CensuraAlgoritmica #ContenidoInapropiado #DiscriminacionAlgoritmica #GeorgeFloyd #MenoresEnRedes #ModeracionHumana #Netflix #PadresDigitales #PlutoTV #ProteccionInfantil #SeguridadOnline #TecnologiaSegura #tiktok #TikTokPeligroso #TrendsWeb #YouTubeKids

Logotipo de TikTok en colores vibrantes y efectos de brillo, sobre un fondo gris.Tres niños sentados en una mesa, mirando fijamente sus teléfonos móviles, en un ambiente interior con luz natural.Niños viendo sus teléfonos móviles mientras están de pie juntos, con expresiones concentradas.
2025-06-25

⚠️ Padres: TikTok ya NO es para niños. El trend "white shampoo" es solo el inicio. Mejor Netflix/Pluto TV 📺
#PadresDigitales #SeguridadOnline

elblogdelascuriosidades.com.mx

SPTRALsptral
2025-04-06

¡Cuidado con el phishing!

En el mundo digital, los ciberdelincuentes usan el engaño para robar tu info. Correos falsos, webs fraudulentas... ¡No caigas! Aprende a identificar y prevenir estos ataques. ️ Más info aquí:

sptral.com/phishing-el-engano-

2025-02-22

Alerta OpenAI: Uso indebido de ChatGPT

OpenAI ha tomado medidas enérgicas al prohibir cuentas vinculadas a un intento de uso indebido de ChatGPT. Este incidente revela la creciente preocupación sobre el potencial de la inteligencia artificial para fines de vigilancia y manipulación. Un grupo de usuarios chinos intentó utilizar ChatGPT para depurar código destinado a una herramienta de vigilancia de redes sociales. Este hecho marca un precedente en la detección y respuesta a usos indebidos de la IA.

Uso Indebido de ChatGPT para Vigilancia

El grupo de usuarios buscaba refinar un programa diseñado para monitorear el sentimiento antichino en plataformas como X, Facebook, YouTube e Instagram. La herramienta tenía como objetivo detectar llamados a protestas y críticas al gobierno chino, con la intención de informar a las autoridades. Este uso de ChatGPT para fines de vigilancia plantea serias implicaciones éticas y de seguridad.

OpenAI, a través de su investigación denominada «Revisión por pares», detectó patrones de uso que indicaban una operación coordinada. Los operadores utilizaban ChatGPT en horarios consistentes con la jornada laboral de China continental, activando los modelos en chino y con una frecuencia que sugería interacción manual. Además, intentaron corregir afirmaciones sobre el envío de datos a embajadas y agencias de inteligencia.

La Herramienta de Vigilancia y su Código

Gran parte del código de la herramienta se basaba en una versión de código abierto del modelo Llama de Meta. El grupo también utilizó ChatGPT para generar argumentos de venta y revisiones de desempeño, incluyendo la creación de correos electrónicos de phishing. Este uso de modelos de código abierto y herramientas de IA para vigilancia resalta la necesidad de mayor transparencia y control en el desarrollo y uso de estas tecnologías.

Este incidente es el primero de su tipo detectado por OpenAI, según Ben Nimmo, investigador principal de la compañía. «Los actores de amenazas a veces nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que utilizan nuestros modelos de inteligencia artificial», comentó Nimmo a The New York Times.

OpenAI también prohibió otra cuenta que utilizó ChatGPT para generar publicaciones críticas contra la politóloga disidente Cai Xia. El mismo grupo generó artículos en español críticos con Estados Unidos, publicados en medios latinoamericanos. Estas acciones subrayan la preocupación de OpenAI por el uso de su tecnología para la desinformación y la censura.

Desafíos y Futuras Investigaciones

Evaluar el impacto total de estas actividades requiere la colaboración de múltiples partes interesadas, incluyendo a los desarrolladores de modelos de código abierto. OpenAI continúa investigando y adaptando sus políticas para prevenir el uso indebido de sus herramientas.

El incidente de OpenAI resalta la necesidad de una vigilancia constante y una regulación efectiva en el uso de la inteligencia artificial. La capacidad de estas herramientas para ser utilizadas en vigilancia y manipulación plantea serios desafíos para la libertad de expresión y la seguridad global. La respuesta de OpenAI establece un precedente importante en la lucha contra el uso indebido de la IA.

Fuente:

  • Información basada en el reporte de The New York Times

#ChatGPT #China #inteligenciaArtificial #OpenAI #SeguridadOnline #vigilanciaSocial

AppleX4AppleX4_
2025-02-12

🚨 ¡Ojo con Wallapop y Vinted! 🚨 La Guardia Civil alerta sobre estafas en apps de segunda mano. No hagas pagos fuera de la plataforma, desconfía de gangas demasiado buenas y nunca accedas a enlaces sospechosos. ¡La precaución es clave! 🔍💳

Actualidad iPhone :mastodon:actualidadiphone@mastodon.world
2025-01-16

📱💻 ¡Descubre las 5 mejores VPN gratis para iPhone! Protege tu privacidad y navega sin límites. 🌐🔒 ¿Cuál es tu favorita? #VPN #iPhone #SeguridadOnline actualidadiphone.com/5-vpn-gra

SPTRALsptral
2024-11-13

¿Por qué elegir Threema?

* Privacidad total: Olvídate de los números de teléfono.

* Seguridad máxima: Tus chats, a salvo de miradas indiscretas.

* Funcionalidades completas: Todo lo que necesitas para comunicarte.

* Código abierto: Transparencia y confianza en cada línea.

¡Protege tu privacidad con Threema!

SPTRALsptral
2024-11-12

Educar sobre privacidad digital es clave. Cada vez que compartimos algo en redes, dejamos un rastro digital. ¡Aprendamos a proteger nuestra información personal y a ser conscientes de los riesgos de compartirla indiscriminadamente!

SPTRALsptral
2024-11-04

¡Cuidado con tu número! ⚠️ Compartir tu número de teléfono es como dar una llave de tu vida digital. Con él, pueden acceder a tus cuentas, rastrear tu ubicación e incluso robar tu identidad.

SPTRALsptral
2024-11-04

Tus datos financieros son un objetivo principal para los cibercriminales. ¡No los expongas! Utiliza contraseñas fuertes y verifica la seguridad de los sitios web antes de realizar transacciones. "

Santi Rey 🎙📲santirey
2024-01-15

¡Atención, comunidad! 🔊 Proteger tu red WiFi es más fácil de lo que piensas. Descubre cómo hacerlo con mi último artículo. Porque una red segura es el primer paso para una vida digital tranquila. 🖥️🔒
👉 cursosytutos.es/consejo-17-pro

Cifra Educacióncifraeducacion
2023-10-27

🔒 Tu información debería estar siempre segura y a la vez ser accesible. Con nuestra plataforma Cifra, la gestión escolar es más fácil y cómoda que nunca. Todo protegido en un único lugar. Todo al alcance de manera intuitiva.

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst