Авторизация

Этот раздел посвящен вопросам наших клиентов по системе управления сайтом Битрикс
 
2016-02-05

Прибыль с "копипасты"

1.
баг простейший - для робота и антивируса выглядит как обрывок кода, санкций не будет при 1 баге на страницу. (если более 1 бага на страницу, то уже будет подозрительно = дважды одинаковый обрывок кода). На родном сайте "жук" не активен. В случае, если текст вслепую "копипаст" вставят на любой другой открытый в сети носитель информации (страница сайта, загруженный документ Офис), то робот прочитает обрывок кода как авторское право, к примеру: "исходный текст расположен на странице pilotwebsite.ru/ автор текста Олег Попов", таким образом 1) можно доказать авторское право и наказать вора (если у вас есть зарегистрированное авторское право). 2) каждый раз, когда поисковый робот прочитает этот кусок кода, он зарегистрирует скрытую ссылку на Ваш сайт. Посетитель по этой ссылке не перейдет, так как никто не видит, а робот перейдет и засчитает для повышения авторитета Вашего сайта.
2.
Ваша выгода в том, что один раз заложив "начинку" на странице своего сайта, сайт начнет пассивно сам себя продвигать при каждом копипасте (а учитывая, что большинство пользователей копируют текст целиком, то вероятность ручной очистки кода рассматриваю как очень маленькую, так как обычно 1) люди, которые копируют текст, не обладают квалификацией, чтобы чистить код или даже читать его 2) люди, которые могут читать код и копируют текст, чаще всего не тратят время на вычитку кода = закладка подобных "багов" на сегодня практически нераспространенный способ продвижения, и никто не ожидает засады в копировании чужого абзаца 3) если  нужно переделывать весь текст целиком, то проще набрать свой новый код, чем править чужой старый) 4) даже если кто и найдет баг, то пожаловаться в тех.поддержку антивируса или поисковика, чтобы занести сайт в "черный список" не сможет ;) ибо данный обрывок кода не является вредоносным, а только указывает на авторство. 5) в случае, если количество или качество "багов" вызовет подозрение поисковика, то он тут же поставит нас в известность и мы сможем либо уменьшить количество багов, либо полностью отказаться от них (хотя на сегодня обрывок кода не является подозрительным, это скорее относится к гигиене кодера, но кто знает, может завтра Яндекс придумает, что у хорошего сайта все страницы должны быть идеально чисты и все строчки кода должны работать без ошибок = хотя я лично в этом сильно сомневаюсь на ближайшие 3-5лет, так как даже Виндоуз и антивиры далеки от примера идеально чистого кода)

← Назад к списку новостей