Hace unos días un amigo que también se dedica al
desarrollo web me comentaba sobre el deseo de evitar un
plagio a sus contenidos en la Web, y me pedía información sobre aplicar una
protección técnica para evitar la copia.
En este caso se trataba de contenidos disponibles a toda la comunidad en la red, y que además se deseaba mantener su visibilidad ante los buscadores.
Por supuesto, desde el punto de vista que el cliente de la Web es un navegador, no hay mucho que se pueda hacer por una protección del todo eficiente, aunque aun así se puede trabajar con el objetivo a
dificultar la copia del contenido al menos ante la mayoría de los usuarios en la red y basarse en esta definición de contenido seguro: un contenido en la red es seguro si el costo de violar su seguridad es mayor a la ganancia obtenida.
Los métodos: desabilitar opiciones del navegador que permitan la copia (las de salvar, menus popup, imprimir, print-screen, etc...), cifrar el código para evitar copia directa, y un grupo de cosas que en otro momento mencionaré como hacer en cada caso particular. Todo esto es posible lograrlo solo a base de JavaScript y algun script de parte del servidor Web.
En este caso quisiera tocar solo el tema de los inconvenientes. Primeramente tenemos el costo de la
pérdida de accesibilidad, puesto que si no se puede imprimir, se requiere de JavaScript, probablemente no funcionen todas las características en todos los navegadores, ademas de evitar uso del portapapeles... ummm... pero bueno se trata de proteger, habría que evaluar si realmente se desea pagar este precio en dependencia de cada caso.
El otro aspecto esta en lograr
que los buscadores indexen el contenido. La técnica evidente sería usando el User-Agent y mostrarle un contenido no cifrado a los robots de búsqueda (cloaking ?), pero esto es muy fácil de burlar ya que existen
herramientas que cambian el useragent además de que los contenidos podrían salir como parte del cache de los buscadores, sin contar con la posible penalización, pues aunque en la práctica se estaría mostrando el mismo contenido a los robots que a personas, técnicamente el código es diferente y es interpretado como cloaking por parte de herramientas automáticas... suficiente, este tipo de protección no es amigable con los robots de busqueda y/o los robots representan un riesgo para esta protección.
Estas protecciones pueden ser por el contrario bien usadas en el caso de aplicaciones Web que desean proteger informaciones determinadas, en especial en el caso de intranets corporativas, pero no es práctico aplicarlas en el caso de contenidos públicos, salvo algunas excepciones como el caso de
Google Books (muy bien hecha esta protección por cierto).
Por ahora debemos convivir (y combatir) con el robo de contenidos en la red, pero no son estos tipos de protección de contenidos los métodos más adecuados.