Для сайта
— Выбор хостинга для сайта
— Создать почту Google для сайта
— Хранилище файлов в интернете
— Файл .htaccess
— Файл robots.txt
Для софта
— Настройка RDP на сервере
— Создать удаленное подключение RDP
— Загрузить файл через RDP
— Тест антивирусов на скорость
— Тест антивирусов на надежность
— Настройка Ammyy Admin
— Настройка службы Ammyy Admin
Для Windows
— Оптимизация Windows
— Отключить CTRL + ALT + DEL
— Разблокировать Windows
— Не запускается программа
— Не правильное время
— Перевернулся экран
— Ошибка NTLDR is missing
— Отключить chkdsk
— Пропала языковая панель
— Пропал рабочий стол
— 1С на Windows 7
— Сбивается дата и время
— Не опознано USB устройство
— Компьютер сам перезагружается
— Компьютер не включается
Для 1С
— Выгрузка регламентированных отчетов 1С
— Ошибки при печати машиночитаемой формы
Это текстовый файл, находящийся в корневой директории сайта, в котором записываются специальные инструкции для поисковых роботов.
Инструкции в данном файле запрещают к индексации некоторые разделы или страницы на Вашем сайте, указывают на правильное «зеркалирование» домена, они рекомендуют поисковым роботам соблюдать определенный временной интервал между скачиванием документов с сервера и т.д.
Разберем основные записи файла robots.txt:
#User-agent - задает имя поискового агента (yandex, google, rambler, * - для всех)
User-agent: *
#Host - задает доменное имя Вашего сайта
Host: www.yoursite.ru
#Инструкции для роботов - текст после знака "#" и до конца строки комментарий
#Disallow - задает запрет индексации конкретного раздела сайта
Disallow: /cgi-bin/
Disallow: /admin/
#Allow - разрешает индексацию
Allow: /
#Crawl-delay - задает таймаут в секундах, с которым поисковый робот закачивает страницы с Вашего сервера
Crawl-delay: 4.5
Пример файла robots.txt:
User-agent: *
Host: www.yoursite.ru
Sitemap: http://www.yoursite.ru/sitemap.xml
Disallow: /cgi-bin/
Disallow: /images/
Disallow: /awstats/
Crawl-delay: 4.5
Итак, есть бесплатный ресурс для генерации файла: