La creciente presencia de la inteligencia artificial en el ámbito de la ciberseguridad ha posibilitado nuevos métodos de ataques informáticos que amenazan la privacidad de millones de usuarios. Uno de los riesgos más alarmantes es el método que permite descifrar lo que una persona escribe solo analizando el sonido generado por las pulsaciones en su teclado.
Este tipo de ataque, conocido como canal lateral acústico, deja de ser una hipótesis experimental para convertirse en una amenaza real, según recientes investigaciones. Consiste en aprovechar las ondas sonoras producidas por cada tecla para inferir el contenido escrito, siempre que el atacante tenga acceso al micrófono del dispositivo de la víctima, ya sea en una computadora portátil, teléfono móvil o a través de aplicaciones de videollamadas.
Una vez controlado ese canal, el atacante registra los sonidos de las pulsaciones y emplea algoritmos de inteligencia artificial para identificar qué teclas se han presionado, logrando así descifrar el texto. Aunque técnicas similares se usaron desde los años 50 por agencias de inteligencia para interceptar comunicaciones cifradas, la precisión lograda hoy con la IA moderna supera con creces dichas capacidades históricas. La avanzada tecnología de análisis acústico incluso puede distinguir sonidos casi imperceptibles para el oído humano, en teclados de última generación.
El proceso comienza con la infiltración en el micrófono del dispositivo mediante malware, permisos otorgados sin precaución en aplicaciones o la explotación de vulnerabilidades en plataformas de videollamada. Así, cada pulsación queda registrada y analizada mediante modelos de aprendizaje profundo y redes neuronales con mecanismos de atención, logrando identificar patrones únicos en los sonidos de cada tecla.
Investigadores británicos en 2023 demostraron la efectividad de esta técnica al colocar un iPhone 13 mini a 17 centímetros de un MacBook Pro y entrenar un modelo de IA que logró identificar correctamente el texto en un 95% de los casos. Cuando la interferencia ocurrió a través de una llamada en Zoom, la precisión fue del 93%, evidenciando que el espionaje remoto es viable sin necesidad de presencia física.
Para mitigar estos riesgos, expertos recomiendan revisar y limitar los permisos en las aplicaciones, especialmente aquellos que permiten acceso al micrófono. Es crucial desconfiar de aplicaciones que soliciten permisos innecesarios o provengan de fuentes no confiables. Asimismo, la implementación de contraseñas complejas y aleatorias, que combinen diferentes caracteres, dificulta el trabajo de los algoritmos de ataque.
Otros consejos útiles incluyen variar la presión y el ritmo al teclear, emplear autenticación en dos pasos o biométrica para añadir una capa adicional de protección, y en casos donde la información sea sensible, desactivar el micrófono o usar dispositivos sin acceso a él. Estas medidas aumentan significativamente la seguridad frente a las posibilidades que ofrece la inteligencia artificial en la ciberdelincuencia, advirtiendo a los usuarios sobre la importancia de mantener un control riguroso de los permisos y mecanismos de protección digital.