C'est le 30 juin 1994 que naissait le fichier robots.txt, un fichier qui permet de donner des indications aux robots ( bots ) des moteurs de recherche afin de leur indiquer quelles pages du Web ne pas indexer.

terminator-5 Le fichier donnait ainsi une indication aux moteurs de recherche ( et pas une obligation ), chaque moteur de recherche peut donc suivre le fichier ou passer outre. À ce jour il n'existe d'ailleurs aucune norme officiellement reconnue par l'ensemble des acteurs du NET.

Pour célébrer les 20 années du fichier, Google, le spécialiste de la recherche en ligne, y est allé de son petit clin d'oeil et a modifié le fichier en question. Dans le cas de la firme de Mountain View, le fichier indiquait aux robots T-800 et T-1000 ( les références des modèles de Terminator, les robots tueurs de Skynet ) de ne pas s'occuper de Larry Page ni de Sergey Brin, les deux fondateurs de Google.

User-Agent : T-1000

User-Agent : T-800

Disallow : /+LarryPage

Disallow : /+SergeyBrin

Une petite blague à double sens, puisque Google s'intéresse également de plus en plus à la robotique, ce qui a valu à la marque une interruption de sa dernière conférence Google I/O par des manifestants anti-robots souhaitant sensibiliser le monde sur la dangerosité des robots tueurs.