На форумах вебмастеров можно наткнуться на целые серии тем, в которых ведется обсуждение случаев ранжирования плагиата выше, чем оригинала. Чтобы разобраться, можно ли продвинуть сайт на копипасте в 2021 году, вебмастера задали вопрос об отношении Google к плагиату на одной из онлайн-встреч с представителем компании Джона Мюллера.
Джон Мюллер не стал отрицать того факта, что у страницы с копией контента всегда есть шансы оказаться в выдаче выше, чем у источника. Ключевой причиной такой несправедливость ранжирования в большинстве случаев оказывается низкое, в целом, качество сайта-источника. Дело в том, что о качестве алгоритмы поисковика судят не по каждой конкретной странице, а по ресурсу в целом. И если вы вдруг решите сделать одну страницу с крутым лонгридом и идеальной версткой на сайте, с которым не все хорошо, то не удивляйтесь, подняться до высоких позиций в выдаче будет очень сложно.
Также Мюллер отметил, что алгоритмы Google позволяют поисковой системе практически безошибочно определять первоисточник. В США, конечно степень защиты прав на тексты выше, чем в остальном мире. Американские издатели могут подать жалобу на уровне DMCA, доказать авторские права и даже получить компенсацию.
Получается, что Google почти всегда на 100% знает где оригинал, а где копия публикации. Но это нисколько не мешает при ранжировании отдавать лучшие позиции в топе не тому, кто первый, а лучшему по E-A-T. Если сайт в целом не вызывает доверия и слабо соответствует критериям, перечисленным в инструкции для асессоров Google, то публикация уникальных новостей не поможет ему завоевывать топы. Для начала нужно привести в порядок ресурс в целом: страницы, ссылки, скорость загрузки и прочее, и только потом беспокоиться о вопросах плагиата со стороны конкурентов.