Podcast: Reproducir en una nueva ventana | Descargar (6.3MB)
Este podcast empezó hablando en el primer capítulo (entre otras cosas) del fichero robots.txt
Os recuerdo que es un fichero de texto que se pone en la raiz de las webs con el que se le dan instrucciones a los bots, como googlebot de Google, sobre qué partes de nuestro sitio queremos que indexes y cuáles no, dónde está el sitemap de nuestra web, y cosas así.
Pues bien, hoy voy a hablaros de un proyecto que es la cara opuesta de la moneda, humans.txt
humans.txt es un archivo TXT que contiene la información sobre las personas que han intervenido en una web.
Este proyecto nació en 2011 de la mano de Abel Cabans, Abel Sutilo, Carlos Mañas, Juanjo Bernabeu y Maria Macias.
Para utilizarlo sólo tienes que crear un fichero llamado “humans.txt” y subirlo en la raiz de tu sitio. En su web, http://humanstxt.org/, tienes más instrucciones sobre algunos detalles técnicos y sobre el contenido recomendado, pero no tiene mucha complicación.
Hasta Google se ha animado a incluir su propio fichero humans.txt (aunque un poco a su manera):
https://www.google.com/humans.txt
Google está construido por un gran equipo de ingenieros, diseñadores, investigadores, robots y otros, que están en muchas ubicaciones alrededor del globo. Se actualiza continuamente y está construido con una cantidad inconcebible de herramientas y tecnologías. Si quieres ayudarnos, entra en google.com/careers.
Si quieres un plugin para generarlo automáticamente, tienes unas cuantas opciones:
Online:
- Humans.txt Generator https://humanstxtgenerator.beewits.com/
WordPress
- Humans TXT https://es.wordpress.org/plugins/humanstxt/
- WP Humans.txt https://es.wordpress.org/plugins/wp-humanstxt/
- We are humans https://es.wordpress.org/plugins/we-are-humans/
Drupal
- Humans.txt https://www.drupal.org/project/humanstxt
Joomla!
- NS Humans TXT https://extensions.joomla.org/extension/ns-humanstxt/
COLOCADO EN AMBAS WEBS:
http://www.colmenaycolmena.com/FOTOGRAFO/humans.txt
&
http://www.colmenaycolmena.com/humans.txt