Los captcha, cada vez más frágiles
Hace tiempo publiqué unos vídeos sobre los captcha, en los que explicaba su origen, su funcionamiento, su futuro y los problemas de accesibilidad que presentan:
[kml_flashembed movie="http://www.youtube.com/v/VUPSg8Jp_Es" width="640" height="360" wmode="transparent" /]
Hoy ha salida publicada en el periódico El País la noticia Los robots maliciosos ganan habilidad para asaltar webs. En esta noticia se comentan dos investigaciones diferentes que se han realizado sobre los captcha y sobre las redes sociales.
Sobre los captcha podemos leer:
Un equipo de la Universidad de Stanford ha creado una herramienta para descrifar captchas y la han aplicado con desigual éxito, pero éxito al fin y al cabo, en distintas webs, desde Amazon a Wikipedia o Visa. La herramienta se llama Decaptcha y sus autores no la distribuirán, la crearon únicamente para sus fines académicos. Según han explicado los investigadores a Cnet, muchos captchas se diseñan sin probar su efectividad. Su ensayo quiere llamar la atención sobre la necesidad de mejorar los obstáculos para que resulten menos legibles a las máquinas.
Su herramienta descifró el 66% de los captchas usados en un sitio de Visa y el 70% de los que presentaba el sitio de la empresa de videojuegos Blizzard. Wikipedia presentó una fragilidad del 25%.
El único sitio cuyos captchas resistieron a los robots universitarios fue el de Google, que usa ReCaptcha, una herramienta que compró en 2009 y es de uso libre. Una investigación anterior, realizada sobre Google por otro grupo, consiguió más éxito, pero era sobre una versión anterior de la herramienta de protección.
Deja un comentario