20 лет тому назад появился файл robots.txt, с помощью которого владельцы сайтов могут указывать параметры индексирования своих страниц поисковыми роботами.
20 лет тому назад был создан файл robots.txt, с помощью которого владельцы сайтов могут указывать параметры индексирования своих страниц поисковыми роботами.
Впервые этот файл появился в 1994 году голландским инженером Мартином Костером, когда он работал в компании Nexor. Все основные поисковые системы тогда, включая WebCrawler, Lycos и AltaVista, быстро приняли его и до сих пор поддерживают его требования.
Между тем, на серверах Google появилась шуточная версия файла robots.txt под названием killer-robots, которая может спасти основателей компании Сергея Брина и Ларри Пейджа от атаки роботов из фильма "Терминатор-2: судный день". Речь идет о роботах T-800 (его роль в фильме исполнил Арнольд Шварценеггер) и T-1000 (робот из жидкого металла, сыгранный Робертом Патриком).
Судя по тексту файла, новые терминаторы не способны причинить вред основателям компании, которая нацелена на создание искусственного интеллекта SkyNet, способного воевать с людьми.
Источник:
CNET News/searchengineland.com
Копировать, распространять, публиковать информацию портала News.lt без письменного согласия редакции запрещено.