Компания Google в рамках мероприятия Google Search Central Live в Сингапуре сообщила не только о новых технологиях поиска, но и о том, что в интернете очень много дубликатов. Как заявили представители поискового гиганта, почти 60% всей информации в сети — это дубликаты.
Иначе говоря, это один и те же данные, которые разбросаны на разных сайтах и могут находиться под разными адресами. Нередко это может быть даже один и тот же сайт, но с разными адресами. Так обычно делают пираты.
В компании заявили, что «дубликаты» страниц вводят поисковик в заблуждение, потому пользователи могут найти совсем не то, что хотели бы. В результате снижается качество работы поисковой системы в целом.
В Google посоветовали специалистам сделать следующее:
- Удалить дубликаты протоколов (предпочтение HTTPS);
- Убрать www;
- Удалить бесполезные URL-адреса;
- Оставить только один вариант URL: со слэшем «/» или без него.
Это позволит улучшить работу сети и оптимизирует сайты.