Ты про наших олигархов?
Что больше всех в мире, на один город Москва проживают, точнее прописаны в Москве)
И 10 из них рулит экономикой России, остальные Европой, а мы все ббыдло, но себя уважаем и много работаем в онлайн?
Раздел: Российские спонсоры, ответов: 11, последний комментарий: 16.03.2011 13:08
хороший совет для апгрейта селеронов!
Intel i7 990x и NVIDIA gtx 580, Tri-SLI, 3D surround.
Если такой умник покажи свой мега комп, а не ютюб, хотя лично я и с ютюбом еще посоревнуюсь)))
Раздел: Железо, ответов: 9, последний комментарий: 15.03.2011 09:54
Про зону РУ!
Есть много которые посещаемые)))
А есть всего пару- тройку где можно заработать, wmmail в том числе
Главное иметь голову на плечах, а вот как сделать из 0,01$ в 1$ уже не проблема, на кокой бы САР ты не работал
Раздел: Российские спонсоры, ответов: 11, последний комментарий: 16.03.2011 13:08
1)Сколько можно делать на этом рейтинг, хотя тема до решения проблемы 502 будет всегда актуальна
2)За постоянным повтором, подобные темы из беседки не нужно выпускать - ПРИ УСЛОВИИ, что будет закреплена самая удачно созданная публикация в Золотом Фонде или в ИДЕИ для сайта!
3) проблема 502 для нас пользователей существует и уж поверьте на слово, что админу она тоже пару ночей в неделю спать не даёт
Стоит ли мне дальше писать.... школьники не поймут, а серьёзные люди давно уже не пишут
На партёрках- работаю, в том числе и иностранных!
На ФО и форум давно заброшены из за недостатка времени!
Спасибо, значит не зря когда то старался
Координально сменил сферу деятельности, для меня САР это лишь экономия рекламных бюджетов. Думаю если на каждой САР где работаю, в год экономлю до 1000$, то это тоже заработок)
Раздел: Зарубежные спонсоры, ответов: 7, последний комментарий: 15.03.2011 08:43
Сам чего от неё ждёшь?
В принципе всё что о ней думаешь, всё является правдой твоего воображения и догадок.
Кстати есть ещё более популярнее и доходней соц. сети, может тебе лучше там быть обманутым, чем в новой и развивающийся?!
Раздел: Зарубежные спонсоры, ответов: 7, последний комментарий: 15.03.2011 08:43
Если создал задание то Будь Готов, что кто то тебя точно захочет на(обмануть), а тем более АВТО
Админу писать на такие выявленные случаи- твоя прямая обязанность по защите своих прав
Других прямых методов с этим злом нет!
Но я использую следующий метод:
Пишу мультику - за регулярное правильное выполнение моего задания, выдаю дополнительный бонус через задание (задание ручное с подтверждением на 5 дней) так что баню его мультов+ минусы на стену от меня и моих рефералов)
Добавлено спустя 15 минут 53 секунды
не забудь попросить админа, чтобы он средства списал с мульта на твой акк вернул
Наверно я тоже не так выразился)))
Тобой создана тема и тебе многие готовы помочь, а готовые ответы тупо в ВП ни кто слать не будет, если не требуется заманить тебя по рефке или оказать платные услуги
Так что на наводящие вопросы, тебе тут придётся отвечать, чтобы тебе могли оказать помощь и причём чисто за "зелёное спасибо"
Раздел: Другое, ответов: 3, последний комментарий: 15.03.2011 06:38
Поисковые роботы — как они работают и что делают при индексации сайта
Роботы поисковой системы, которые иногда называют «пауки» или «кроулеры» (crawler) — это программные модули, занимающиеся поиском web-страниц.
Попробуем разобраться как они работают и что же они делают в действительности. Почему они важны?
Учитывая весь шум вокруг поисковой оптимизации и индексных баз данных поисковиков, вы, наверное думаете, что роботы должно быть великие и могущественные существа.
Такое представление не соответствует истине. Роботы поисковика обладают лишь базовыми функциями, очень похожими на те, которыми обладали одни из первых броузеров, в отношении того, какую информацию они могут распознать на сайте.
Как и ранние броузеры, роботы попросту не могут делать определенные вещи. Роботы не читают и не понимают фреймов, Flash анимаций, изображений или JavaScript.
Они не могут зайти в разделы, защищенные паролем и не могут нажимать на все те кнопочки, которые есть на сайте. Они могут "заткнуться" в процессе индексирования динамических адресов URL и работать очень медленно, вплоть до полной остановки и признания своего безсилия перед навигацией сайта, созданной при помощи JavaScript.
Как работают роботы поисковой машины?
Поисковые роботы стоит воспринимать, как программы автоматизированного получения данных, путешествующие по сети в поисках информации и ссылок на информацию.
Когда, зайдя на страницу "Submit a URL", вы регистрируете очередную web-страницу в поисковике, то в очередь для просмотра сайтов роботом добавляется новый URL.
Даже если вы не регистрируете страницу, множество роботов найдет ваш сайт, поскольку существуют ссылки из других сайтов, ссылающиеся на ваш. Это одна из причин, почему важно строить ссылочную популярность и размещать ссылки на других тематических ресурсах.
Придя на ваш сайт, роботы сначала проверяют, есть ли файл robots.txt. Этот файл сообщает роботам, какие разделы вашего сайта не подлежат индексации. Обычно это могут быть директории, содержащие файлы, которыми робот не интересуется или ему не следовало бы знать.
Роботы хранят и собирают ссылки с каждой страницы, которую они посещают, а позже проходят по этим ссылкам на другие страницы. Вся всемирная сеть построена из ссылок. Начальная идея создания Интернет сети была в том, что бы была возможность перемещаться по ссылкам от одного места к другому. Вот так перемещаются и роботы.
"Остроумность" в отношении индексирования страниц в реальном режиме времени зависит от инженеров поисковых машин, которые изобрели методы, используемые для оценки информации, получаемой роботами поисковика.
Будучи внедрена в базу данных поисковой машины, информация доступна пользователям, которые осуществляют поиск. Когда пользователь поисковой машины вводит поисковый запрос, производится ряд быстрых вычислений для уверенности в том, что выдается действительно правильный набор сайтов для наиболее релевантного ответа.
Вы можете просмотреть, какие страницы вашего сайта уже посетил поисковый робот, руководствуясь лог-файлами сервера, или результатами статистической обработки лог-файла. Идентифицируя роботов, вы увидите, когда они посетили ваш сайт, какие страницы и как часто.
Некоторые роботы легко идентифицируются по своим именам, как Google's "Googlebot". Другие более скрытые, как, например, Inktomi's "Slurp". Другие роботы так же могут встречаться в логах и не исключено, что вы не сможете сразу их идентифицировать; некоторые из них могут даже оказаться броузерами, которыми управляют люди.
Как роботы читают страницы вашего web-сайта?
Когда поисковой робот посещает страницу, он просматривает ее видимый текст, содержание различных тегов в исходном коде вашей страницы (title tag, meta tags, и т.д.), а так же гиперссылки на странице. Судя по словам ссылок, поисковая машина решает, о чем страница.
Есть много факторов, используемых для вычисления ключевых моментов страницы «играющих роль». Каждая поисковая машина имеет свой собственный алгоритм для оценки и обработки информации. В зависимости от того, как робот настроен, информация индексируется, а затем доставляется в базу данных поисковой системы.
После этого, информация, доставленная в индексные базы данных поисковой системы, становится частью поисковика и процесса ранжирования в базе. Когда посетитель существляет запрос, поисковик просматривает всю базу данных для выдачи конечного списка, релевантного поисковому запросу.
Базы данных поисковых систем подвергаются тщательной обработке и приведению в соответствие. Если вы уже попали в базу данных, роботы будут навещать вас периодически для сбора любых изменений на страницах и уверенности в том, что обладают самой последней информацией. Количество посещений зависит от установок поисковой машины, которые могут варьироваться от ее вида и назначения.
Иногда поисковые роботы не в состоянии проиндексировать web-сайт. Если ваш сайт упал или на сайт идет большое количество посетителей, робот может быть безсилен в попытках его индексации. Когда такое происходит, сайт не может быть переиндексирован, что зависит от частоты его посещения роботом.
В большинстве случаев, роботы, которые не смогли достичь ваших страниц, попытаются позже, в надежде на то, что ваш сайт в ближайшее время будет доступен.
Многие поисковые роботы не могут быть идентифицированы, когда вы просматриваете логи. Они могут посещать вас, но логи утверждают, что кто-то использует Microsoft броузер и т.д. Некоторые роботы идентифицируют себя использованием имени поисковика (googlebot) или его клона (Scooter = AltaVista).
В зависимости от того, как робот настроен, информация индексируется, а затем доставляется в базы данных поисковой машины.
Базы данных поисковых машин подвергаются модификации в различные сроки. Даже директории, имеющие вторичные поисковые результаты используют данные роботов, как содержание своего web-сайта.
Собственно, роботы не используются поисковиками лишь для вышеизложенного. Существуют роботы, которые проверяют базы данных на наличие нового содержания, навещают старое содержимое базы, проверяют, не изменились ли ссылки, загружают целые сайты для просмотра и так далее.
По этой причине, чтение лог-файлов и слежение за выдачей поисковой системы помогает вам наблюдать за индексацией ваших проектов.
[опрос] Раздел: SEO, продвижение, раскрутка, ответов: 8, проголосовало: 310, последний комментарий: 15.03.2011 05:57
Опера меняет IP- просто надо "уметь её готовить))"
Hide Easy- не самый лучший вариант.
tfr.ru- подозреваю, что это ответ твоего антивируса, так как все прокси находятся в его базе.
В браузерах и настройках проги, полно важных галочек под настройки для комфортной работы.
Так что мы не телепаты, чтобы тебе из ничего выдать истинное решение ;)
Добавлено спустя 05 минут 17 секунд
Выглядит это неуважительно, так как проблема не у нас, а у тебя и бегать за тобой и уговаривать- "ну плиз можно тебе помогу"
Ни кто не будет!
Раздел: Другое, ответов: 3, последний комментарий: 15.03.2011 06:38