Один из крупнейших игроков на рынке поисковых систем в сети Интернет, корпорация Google, планирует усовершенствовать поисковые алгоритмы для борьбы с контентом сомнительного качества, которого в сети Интернет в последнее время становится все больше и больше. С таким заявлением в конце прошлой недели обратились представители корпорации к прессе.
Безусловно, что сама поисковая система неспособна определить насколько корректные тексты содержатся на той или иной странице, однако специалисты корпорации говорят о том, что поисковые алгоритмы вполне смогут отсеивать дублирующийся контент, таким образом, определяя сайты, которые вообще не содержат своего собственного уникального контента.
Конечно же, вполне очевидно, что подобные нововведения диктует в первую очередь технологический прогресс, ведь большинство новинок появляются именно благодаря ему. Так, например, для автомобилей появляются новые автокресла детские BeSafe, а интернет сайты начинают подвергаться всестороннему анализу со стороны поисковых систем.
На текущий момент в целом непонятно, что же принципиально нового сможет реализовать корпорация в алгоритмах поисковой системы, о которых шла речь, ведь если говорить только о дублирующем контенте, то, легко можно заметить, что поисковая система Яндекс уже достаточно давно фильтрует такие сайты. Поэтому принципиально нового Google вероятнее всего не сможет предложить, однако с учетом того, что корпорация давно славится как лидер среди инновационных решений, можно ожидать чего-то действительно нового.