Социализируемся

Я в Google+ Я в Twitter Я в Facebook

Showing posts with label Google. Show all posts
Showing posts with label Google. Show all posts

Wednesday, September 23, 2015

IT инструменты для проекта

Очень полезный список инструментов от Дмитрия Сподарца для управления проектами

[Impact Lab] IT инструменты для проекта


4. Почта и анализ почты http://www.yesware.com/ http://www.getsidekick.com/ https://mail.yandex.ua https://gmail.com
5. Управление почтовыми ящиками https://www.google.com.ua/intl/ru/nonpro?ts/products/ https://pdd.yandex.ru/
6. Управление проектом https://trello.com/http://worksection.com/https://atlassian.com
7. Календарь и личный todo лист https://todoist.comhttps://www.google.com/calendar
8. Коммуникация https://slack.com/ http://www.skype.com/ https://hangouts.google.com/
9. Обмен документами и совместная работа над ними https://disk.yandex.ru/https://www.dropbox.comhttps://www.google.com/drive/
10. Совместная работа над текстами https://ru.atlassian.com/software/con?uence http://www.google.com.ua/intl/ru/docs/about/
11. Посещаемость http://www.google.com/analytics/
12. Анализ пользователей https://www.intercom.io/
13. Опросы и рассылка http://mailchimp.com/ http://www.typeform.com/
14. Обратная связь и поддержка пользователей https://www.zendesk.com/
15. Ведение базы партнеров/ клиентов https://www.pipedrive.com www.hubspot.com/products/crm
16. Автоматизация и управление публикациями в соц сетях https://hootsuite.com
17. Аналитика соц. сетей https://youscan.ru http://www.semanticforce.net/
18. Ведение финансов и отчетность https://homemoney.ua/ https://taxer.ua
19. Дашборды для мониторинга состояния проекта https://www.geckoboard.com http://www.cyfe.com/ https://www.datadoghq.com
20. Проведение вебинаров http://www.clickwebinar.ru/ https://www.youtube.com
21. Синхронизация https://zapier.com
22. https://www.f6s.com/


    

Friday, March 15, 2013

Интерактивная иинфографика от Google - как работает поиск


Интересная инфографика от Гугл, показывающая как работает поиск в Гугл и как осуществляется фильтрация результатов, какие сайты попадают в бан...
Полезно для тех, кто занимается продвижением сайтов и SEO.
На презентации работающие ссылки, которые показывают различные примеры и разъяснения.
В режиме реального времени показываются примеры сайтов, которые за последние полчаса были выкинуты из индекса Гугл, с объяснеинем причин.


Irina Grishanova
new interactive infographic by Google called How Search Works
http://www.google.com/insidesearch/howsearchworks/thestory/

How Search Works - The Story – Inside Search – Google
Search starts with the web. It's made up of over 30 trillion individual pages and it's constantly growing. Google navigates the web by crawling. That means we follow links from page to page. Site owne...

    

Friday, January 18, 2013

Is Google Hijacking Semantic Markup/Structured Data?

    На заметку
Интересная статья - анализ с предысторией стратегия Google на пути к Semantic Web

Is Google Hijacking Semantic Markup/Structured Data?

Jan 17, 2013 at 3:54pm ET by Barbara Starr,
http://searchengineland.com

Monday, September 17, 2012

Полезные рекомендации по SEO от Рэнда Фишкина

Google в скором времени планирует штрафовать сайты за излишнюю SEO-оптимизацию. В этом видео рассказано про 6 причин, за что он может наказать...

Надеюсь, есть над чем подумать)

    

Sunday, June 3, 2012

Результаты эксперимента: Влияние социальных сетей на поисковую выдачу Google

Результаты эксперимента: Влияние социальных сетей на поисковую выдачу Google    


Источник: http://hosting.ber-art.nl/social-media-network-seo/

Итак, представлен общественности результат эксперимента, показывающий влияние (и его степень) на ранжирование результата в поисковой выдаче Google.

Данные видны из картинки:

What Social Media Network is best for your SEO?
Итак, Google+, как я и говорила, рулит :). До наших, правда так еще это не дошло, поэтому расценки на плюсы в Г+ еще низкие :).

Ссылки по теме:
Для справки: дать рекламу в социальных сетях Google+, ФБ и т.п. можно тут:

  • - Форумок - большой набор соцсетей
  • - Socialtools - полный набор соцсетей как мировых, так и русскоязычных типа ВКонтакте, а также Youtube!


Если необходимо охватить русскоязычную аудиторию, можно использовать также соцсети ВКонтакте, МойКруг, МойМир и др.

Кроме этого качественные площадки для внешних ссылок представлены тут:

  • - Ротапост (можно заказывать как с сайтов/блогов, так и из аккаутов твиттера. Очень высокое качество предлагаемых площадок)
  • - Блогун (также качественный отбор площадок сайтов/блогов и аккаунтов Twitter, Google+, Facebook)


Принцип размещения рекламы описан тут: Планирование рекламной компании в соцсетях
т.е. тексты должны быть естественными, а кривая роста к-ва твитов/лайков/поделиться - выглядеть натурально.

Заказать статьи для сайтов можно тут:



Monday, May 21, 2012

About Google Knowledge Graph

    Итак, Гугл анонсировал Граф Знаний от Гугла - Google Knowledge Graph, знакомьтесь:

Для нас (в рунете) увы пока еще эту опцию не включили, но уже можно ознакомиться по картинкам в презентации и статье Майка Бергмана, каким теперь будет страница с поисковыми результатами.



Ну и на закуску:
Deconstructing the Google Knowledge Graph Майка Бергмана - разбор Графа Знаний (на англ)

Как видим, страница поиска будет расширена добавлением блоков результатов по сущностям, выделенным из поискового запроса, из Википедии, Freebase, Factbook и еще нескольких источников.

Майк Бергман выделил пока только такой скудный список базовых сущностей (типов):

Entity types that I observed were in these categories:
  • People
  • Chemical Compounds
  • Directors
  • Some Companies
  • Some National Parks
  • Places
  • Musicians/Musical Groups
  • Actors
  • Some Government Agencies
  • Many Local Businesses
  • Animals
  • Movies
  • Albums
  • Notable Landmarks
  • Who Knows What Else

Entity types that I expected to see, but did not find include:
  • Products
  • Most Companies
  • Who Knows What Else
  • Songs
  • Most Government Agencies
  • Concepts
  • Non-government Organizations

Пока оценить такую страницу можно только пройдя по этой ссылке:

Полностью поддерживаю Майка Бергмана в его мнении:
Welcome to the semantic technology space, Google! I look forward to learning much from you.

Добро пожаловать, Гугл, в мир семантических технологий! С нетерпением жду, чтобы побольше изучить и узнать у тебя! :)

Ну и попроще объяснение про Google Knowledge Graph для бизнеса и SEO. (тоже англ)

Google Translate вам в помощь, guys! :)

Friday, April 20, 2012

Google+ presentations

    Сорри, но идиотизм ситуации заключается в том, что презентации в SlideShare на сайте поставщика не показываются, а вставленные сюда - нормально можно видеть... Поэтому, чтобы работать приходится плюхать их на блог.
Думаю, эти презентации про Г+ будут интересными...
Google+ 101 Guide
View more presentations from Supernova Studios

Thursday, April 19, 2012

О социальных сетях



Интересные презентации о социальных сетях, их возможностях и предоставляемых данных. Полезно ознакомиться для Social Marketing #SEM #SMO #SMMAPI ВКонтакте, Одноклассники, Facebook
View more presentations from Mike Zimin





    Из последней презентации хочу выделить несколько слайдов:
Рейтинг популярности социальных сетей в поисковых системах
Рейтинг популярности социальных сетей в Google-ru

Рейтинг популярности социальных сетей в Yandex
Еще интересен график зависимости популярности социальных сетей от тематик. Его приводить не буду-сами посмотрите.

Ну и сами выводы докладчика:


А вот выводы ИМХО спорные :)
Абстрагировавшись от синтаксических ошибок, считаю, что:

  • - прокачанность аккаунта в Твиттере влияет на выдачу (поскольку твиттер-аккаунты тоже имеют свой PageRank и индексируются Гуглом)
  • - Гугл не любит ФБ больше всего :) - Гугл любит больше всего себя любимого. Ну, вынужден пока считаться с Твиттером и ФБ. Причем шансы на вылет у ФБ выше, Твиттер продержится дольше за счет легкости/мобильности/простоты/краткости и популярности.
  • - Напомню раскладку Google PageRank последнего апдейта: Твиттер, ФБ, Google+.

Twitter PageRank 10
Facebook PageRank 9
Google+ PageRank 8


 В любом случае, недооценивать соцсети уже нельзя.

Tuesday, March 6, 2012

Что такое Google+

Сейчас идет уйма баталий между сторонниками разных социальных сетей, критики Google и новой его сети Г+. Хочется поделиться замечательной презентацией, где очень хорошо образно и доходчиво показано, что такое Г+, и каковы ее цели и суть, и отличия от Facebook. Ну и конечно прослеживается (кто в теме) связь с последующим развитием и переходом от Social Web к Semantic Web. (Граф совместных интересов).

Saturday, February 18, 2012

Планирование рекламных компаний в Twitter и других SocialMedia, повышение Google PageRank и видимости - visibility

итак, тема на сегодня обширная - Планирование рекламных компаний в Twitter и других SocialMedia, повышение Google PageRank и видимости - visibility.

Предварительно хочу напомнить про общее движение: мы движемся на пути от веба документов к семантическому вебу (Semantic Web), и посередине пути у нас возник этап - социальный веб (Social Web), который в данный момент очень стремительно развивается. Некоторым исследователям Семантик Веб кажется, что происходят хаотические движения и отход от основных вех, но все это ИМХО - технологические реализации, которые все равно корректируются и рано или поздно приведут к "светлому будущему" :).

Одним из последних важных событий для всех #SEO оптимизаторов стал последний апдейт Google PageRank. Сразу скажу, ориентировочный срок следующего апдэйта (по многим источникам) - конец мая - начало июня 2012 г.

В результате этого апдейта большинство моих сайтов не пострадало, хотя я ими практически не занималась (т.е. качество рулит! :)), однако за один из них мне очень стало обидно. Это сайт сектора перлита НИИСМИ (PR был 2, а стал 0 :(). Забавная ситуация сайт - известной, чуть ли не единственного на постсоветском пространстве организации, признанной во всем мире - ассоциацией перлитовых организаций и Всемирным институтом перлита, имеющей авторские свидетельства и патенты мирового уровня по технологии производства перлита - и никакого внимания со стороны гугла! Нонсенс! И тематика достаточно узкоспециализированная... А все - результат того, что гугл - всего лишь машина, а не человек, и алгоритмы не могут всего предусмотреть. Основная ошибка - сайт практически не обновлялся и гугл решил, что он "умер" :). Этот пример подтверждает важность постоянного обновления ресурса (ув. заказчики, Вы меня поняли? :)). Да, Гугль посчитал, что сектор перлита умер... :) Не дождетесь! :) И стыдно, - Гугл не так давно объявил, надувая щеки, что станет не поисковым механизмом, а "базой знаний" (тоже бежит к Семантик Веб :))... - ню-ню. [почитать Google’s Knowledge Graph to Change Search Forever]. Хотя у них это может получиться.

Второе интересное наблюдение этого апдейта: значения ранков для социальных медиа. Несмотря на тот факт, что (понятное дело по меркантильным соображениям - твиттер хочет себя подороже продать [Why Twitter should sell and Google should buy, Why Google Must Buy Twitter]) Twitter и Facebook официально перекрыли "трубу" для Google (источник, сорри потеряла, но есть тут A Proposal For Social Network Détente), расклад по социальным медиа Google PageRank таков:
Twitter PageRank 10
Facebook PageRank 9
Google+ PageRank 8

Таково настоящее... ИМХО через некоторое время в связи с тем, что гугл подмешивает в результаты поиска страницы Г+, он должен потеснить лидеров. Но в данный момент имеем то, что имеем, и исходя из этого видимо следует строить рекламную стратегию и планировать пропорцию рекламного бюджета, выделенного на соцмедиа (имхо).
10/27 - на твиттер
9/27 - на фэйсбук
8/27 - на Гугл+

Поскольку Гугл+ только набирает обороты, то надо пока он развивается забить себе место и осмотреться:
- завести аккаунт и страницу/ы
- осмотреться, научиться пользоваться и понабирать друзей :)
- научиться и стараться регулярно постить новости. И помним - новое правило от гугл - 
"72 часа бесз строчки - и ты - труп в глазах Google" (Co) :)
ну и почитать ссылки, данные в конце этого поста (или пообщаться со мной в тви :)).

Фейсбук, сорри, - не люблю... тяжелый, много рекламы, много грузит трафика.

Рассмотрю мой любимый Твиттер.

Учтем, что Google постоянно совершенствуется для борьбы со спамом (из последних новинок - они изучают поведенческие характеристики посетителей, а также намерены платить посетителям за отзывы, ссылку на источник вставлю позже, не найду  сейчас). Поэтому считаю, что в продвижении сайтов все-таки стоит идти не по пути использования ботов и всяческих нагонов-прогонов-накруток, а автоматизировать процесс только там, где это не будет подозрительным для Гугла.

Итак, что обычно делает посетитель на сайте (в идеале, к которому мы стремимся :)?
Посетитель заходит на сайт, ему интересно, он просматривает несколько страниц, ему интересен и нравится контент сайта и он хочет не потерять его в потоке информации. Что он делает? Правильно, - где-то ставит у себя закладку, чтобы приходить сюда еще и еще. Кроме того, он может захотеть поделиться этой новостью/информацией со своими друзьями-единомышленниками, и тогда он жмет кнопки "Поделиться" различных социальных сетей. Тогда в тви (ФБ или Г+ и т.п.) появляется пост/твит, отправленный с сайта (напоминаю, в твиттере видно, откуда и какая программа использовалась для постинга, т.е. авто-бото-постинг вычисляем).
Вариант 2 - пользователь, читая ваш сайт, пишет в тви что-то типа : "Читаю http://black-list-affiliates.blogspot.com/, интересно". Такой пост, отправленный из веб-интерфейса тви, или из заслуживающих доверие твиттера тви-клиентов под мобильные устройства и т.п., заслуживает доверие Гугла.
Посты, отправленные людьми, вручную, из веба или с сайта, заслуживают доверия. Можно обмануть и обойти это? Если да - велкам, с удовольствием выслушаю.

ИМХО с точки зрения системы, проверяющей на накрутки, 1-й вариант, конечно, лучше.

Поэтому, поскольку появились замечательные сервисы и площадки, а также люди, готовые немножко подзаработать, думаю, что проводить рекламную кампанию в Social Media имеет смысл с их использованием, задавая режим натурального, плавного посещения, ссылания и постинга :). Т.е. разумно - равномерно распределить количество твитов в течение времени рекламной компании.

Временной таргетинг в данный момент предлагают такие площадки, как Форумок. Форумок хорош тем, что он предлагает широкий выбор социальных сетей (Г+, ФБ, форумы, ВКонтакте и др), и там можно заказывать "нестандартные" задания, такие как описанное выше ("зайти, пробыть, перейти"), правда проверять выполнение таких заданий Вам придется самим собственными средствами :). В простейшем варианте по твиттеру - там можно задавать временные диапазоны, но к сожалению, пока не очень гибко. Проверку постинга и ретвитов Форумок может взять на себя (автоматизировано). Также следует отметить, что ФорумОк ввел бонусную программу для рекламодателей в виде накопительной скидки.

Многие жалуются, что мало, а у некоторых и совсем нету отдачи. Одной из причин может стать неправильный выбор рекламных площадок. Нужно понимать, что есть море блогов с так скажем низким рейтом, и довольно небольшое количество "хорошо прокачанных". 1 твит в прокачанном тви-блоге стоит ВСЕХ твитов в слабеньких.

Из моего эксперимента: дана массовая реклама по низкой цене в слабые аккаунты - и практически никакой отдачи - ни кликов, ни индексации. И при этом дан один пост в одном аккаунте - и почти мгновенная индексация и клики.

Как выбирать качество тви-аккаунтов? Такой аккаунт не обязательно имеет большое количество читателей, хотя и это имеет значение.

Приблизительные характеристики:
  • мин Klout - 45 (в принципе от 30-35 - уже читаемые блоги имхо)
  • фолловеров от 10000
  • листы - аккаунт должен быть занесен в как можно большее количество листов.
В общем, если хотите хорошую отдачу от твитов - надо выбрать результативные прокачанные тви-акки, ну и предложить им норм цену :)


Форумок тоже позволяет включить автопроверку, либо Вы будете проверять выполненные задания сами. К сожалению, пока в случае примера с рабочими часами недели, придется давать объявления диапазоном на неделю (там есть таргетинг только по времени суток, и даты начала-окончания рекламной компании).

Если не переусердствовать, не постить очень много и не разрешать повторные твиты одним и тем же аккам - результаты выходят довольно неплохие, а для Гугла все выглядит достаточно правдоподобно. Итак, главное - спланировать так, чтобы это со стороны гугла и иже с ним других анализаторов, все выглядело естественно.

Еще один аспект хотелось бы отметить - это PageRank твит-аакунтов, ссылающихся на Ваш сайт. Естественно, что чем выше ПР твит-акка, а также возраст и тематика соответствует Вашей, - тем лучше для ПР Вашего сайта. К сожалению, выбора тви-акков по тематикам, мне не попадался. А вот выбор аккаунтов по возрасту и по рейту есть и в Просперо, и на Форумке.

Есть возражения? Знаете вариант более крутой вариант? - Обсудим! :) - @UkrainianLife открыта для обсуждения

В тему: полезные рекомендации по презентации Вашей фирмы в твиттере (имхо всем вроде давно известные, ан нет, потому даю ссылку): The Basics of Twitter Visibility и Case Studies: Four Ways How Tweets Lead to Business

А также полезное можно почерпнуть тут: Результаты эксперимента: Влияние социальных сетей на поисковую выдачу в Google

Кроме этого есть хорошие статьи по результатам экспериментов на блогах сервисов, напр. Блогуна.

По поводу оптимизации под Goolge+
пересказывать все равно глупо - стоит почитать для размышлений:



ну и появились уже первые "практические рекомендации использования Goolge+" в #SEO-оптимизации:
Two Google+ SEO Guides You Should Read

Социализируемся!

Wednesday, November 16, 2011

Использование социальных сетей и твиттера для раскрутки сайта

О взлете влияния социальных сетей на рейтинг сайта уже не пишет разве что ленивый.
В мое поле зрения попались современные способы раскрутки сайта в социальных сетях - платные размещения постовв твиттере, на форумах, в блогах, социальных сетях ВКонтакте, МойМир и т.п.

Что могу сказать - это действительно работает. Но есть нюансы.

Любую рекламную кампанию надо проводить, измеряя ее оптимальность. И особенно платную (хотя можно и бесплатно - на основе взаимовыгодного обмена).

Начнем с основного. Опубликованная ссылка на сайт, - в твиттере, фэйсбуке, на форумах и т.п. добавляет ссылочную массу, т.е. увеличивает количество внешних ссылок на Ваш ресурс, что положительно влияет на рейтинг сайта, и при большом количестве и высоком рейте ссылающихся сайтов/аккаунтов может приподнять PR Google. Но это касается только тех рекламных площадок (твиттер-аккаунт, рейтинг форума и т.п.), которые сами по себе уже имеют какой-то рейтинг.

Для твиттера - это формально количество подписчиков (не менее 3-5 тыс,), рейтинг популярности Klout (сейчас в западных изданиях идет активная критика этого параметра - Forget #Klout: you can't measure influence on #Twitter, , Evil social networks, ), частота обновляемости твиттера и круг общения. Если твиттер обновляется очень редко, т.е. публикации редки, то и интерес у ботов-пауков поисковых систем маленький. То же касается и круга общения - если твит-аккаунт наполняется только рекламой, автопостингом новостей - то же самое. Хозяин аккаунта должен общаться со своей аудиторией, т.е. должны присутствовать сообщения, набранные от руки (это определяется твиттером и Klout),и сообщения другим твиттерянам (содержание в постах @name), ретвиты, листы, фавориты.

Для форумов - важен рейтинг у поисковой системы этого ресурса. Но тут мной анализировался больше твиттер.

Также, доброкачественный исполнитель (владелец твит-фэйсбук аккаунта, блоггер), обязательно перед публикацией посетит Вашу страницу, чтобы проверить - совпадает ли контент с его политиками - это тоже дополнительные посетители.

Откуда узнать влияние твит-аккаунта в среде ботов-пауков поисковок - неизвестно. Но замечено, что есть аккаунты с очень большим количеством фолловеров, но при этом публикация ссылки в них не влечет никакого результата. А есть аккаунты со средним количеством (3-7 тыс.),
и при этом публикация сразу влечет за собой посещение страницы до 20-ти роботов поисковых систем. Это очень полезно для неизвестных сайтов - публикация новой информации будет замечена и проиндексирована тем же Гугл-роботом через неделю-другую, а постинг в твиттере заставит проиндексировать ее сразу же.

Был интересный казус - известный новостной портал, публикующий новости каждые 5-10 минут, индексировался позже (реже), чем та же новость, опубликованная сторонним пользователем в твиттере. Выходило, что если твиттерянин публиковал ссылку на новость, - значит она представляет интерес и ее надо проиндексировать. А иначе - остальные новости могут быть не столь интересны и индексировать их стоит в обычном порядке... :) И это в общем правильно.

Поэтому, если стационарный сайт параллельно раскручивать с помощью твит-аккаунта, публикующего новости сайта, будет более хороший результат. Хотя, для того, чтобы этот твиттер-аккаунт раскрутить, нужно время. Конечно, фолловеров можно поначалу и купить. И опять таки, если он будет публиковать только новости своего сайта со ссылками на себя, анализатор сделает вывод об автоматическом наполнении и не станет уделять внимание этим ссылкам.

Поэтому гораздо интереснее использовать уже живые аккаунты, с хорошим уровнем влияния. Итак, если сотня твит-аккаунтов с хорошим рейтом опубликует ссылку на необходимую страницу, то
1-е - эта страница сразу же будет проиндексирована множеством поисковых роботов и ей будет присвоен более высокий статус внимания.

2-е - эту ссылку увидет множество людей, часть из которых может заинтересоваться и посетить Ваш ресурс. Правда тут не стоит обольщаться - большинство твиттерян не читатели, а писатели, как чукчи :). Статистика показывает, что более 75 процентов твит-аккаунтов вообще боты. Но есть и люди, слава богу. Т..е. вероятность прочтения и посещения есть, хотя и маленькая. Эта вероятность зависит как от качества составленного текста, так и актуальности этой темы в данном аккаунте (для его аудитории) или для всех твиттерян вместе взятых.

Рекомендация - при составлении текста стоит использовать хэштеги соответствующих завяленой тематике популярных топиков - например #SEO, #линки и т.п. Посетители очень часто ищут по ним интересущие публикации. Также можно включать ник своего твиттер-аккаунта (@name), тогда проще отыскать свои объявления, увидеть их распространение по сети. Ну и при этом повысится рейтинг Вашего твиттер-аккаунта.

Еще один немаловажный момент - надо помнить, что "время жизни" твита очень ограничено. Конечно, они хранятся где-то там, на сервере. Но в большинстве случает дальше недельной давности (пара-тройка десятков постов), пользователи не просматривают, и соответственно поисковки тоже. Т.е. индексируется только актуальная на данный временной момент информация. И ей присваивается именно рейтинг актуальности. Через месяц-другой эти ссылки уйдут в небытие. Все очень скоротечно в пространстве социальных сетей. Поэтому раскрутка в социальных сетях - это прежде всего скорость (быстро), но при этом недолговременный эффект. Чтобы сохранить посещаемость на набранном уровне надо или снова проводить рекламную кампанию, либо использовать другие приемы. Для нового ресурса - это идеальный вариант заявить о себе, и получить из тысяч посетителей несколько именно своих постоянных читателей. Также годится для встряски старого ресурса после редизайна или переделки сайта.

Для анализа рассматривались сервисы:

1. Блогуна - одна из самых старых и хорошо зарекомендовавших себя площадок для проведения рекламных компаний. Здесь очень тщательно проводится модерация и отбор принимаемых площадок (сайты, блоги, твит-аккаунты). Можно заказать от отдельной статьи, до поста (постовой) или твита. Минус этой системы - необходимо тратить время на "торги", выбранный ресурс, точнее его хозяин может не сразу отреагировать на заказ. На мой взгляд, эта система более ориентирована на крупные заказы статей, упоминаний, которые не требуют большой динамики, т.е. срочности. Твиттер-аккаунты, равно как и блоги, очень тщательно рейтингуются на предмет влиятельности, скорости индексирования и т.п. параметров для SEO.

2. Упоминатор - тоже довольно стабильно работающая площадка, где представлены сайты, блоги, твит-акки. Сервис похож на  Блогун. Модерация ресурсов не такая строгая, как у блогуна, т.е. требования к ним ниже. Возможен торг. Предлагаемые ресурсы не рейтингуются на предмет "влиятельности".
В связи с большим количеством обиженных твиттерян, отработавших свою работу и "кинутых" и обхамленных техподдержкой Упоминатора, поддержу волну бойкота этой площадки.

3.Форумок - очень активная молодая площадка, предоставляющая рекламу на форумах, в социальных сетях, твиттере. На данный момент - наиболее широкий набор типов рекламных площадок. Твиттер ресурсы рейтингуются по степени влияния. Удобный интерфейс и хорошая скорость работы.

4. Просперо - скромненькая площадка для проведения рекламы в твиттере. Удобный интерфейс. Высокая скорость реагирования твиттерян. Твит-аккаунты рейтингуются. (Подробно о том, как заказывать ссылки на Просперо есть тут). Очень хорошая площадка для начинающих - рекламных кампаний с минимальным рекламным бюджетом.

Заказывать ссылки на твайт-ру не очень советую - конечно, дешево, но на данный момент он стал захламленным и плохо зарекомендовавшим себя сервисом, хотя и недорогим. Часто публикации с этого сервиса блокируются самим твиттером, т.е. не публикуются. Ссылки (редиректы) имеют красный рейт траста. В интернете этот ресурс имеет негативный рейтинг доверия. Так что пока им надо решать свои технические проблемы - восстанавливать рейт доверия в ПС, твиттере и др. службах. Да и попадается много отзывов от твиттерян об обманах их при выплатах и безосновательном блокировании аккаунта.

5. Ротапост - биржа, предлагающая сайты и твит-аккаунты. Ресурсы рейтингуются, используется параметр Я.Авторитет. Удобный интерфейс.

6. Смиар - биржа, предоставляющая твит-аккаунты, ВКонтакте, МойМир и т.п.,которые могут гарантировать 5 кликов :). Т.е. на этой бирже Вы производите оплату только за клики. С одной стороны это вроде бы и правильно. Но не стоит забывать о том, что эти клики могут быть искуственными, т.е. автоматически сгенерированными. Мне попадались "сообщества", которые, объединившись, зарабатывают таким образом деньги - взаимно кликая на рекламных ссылках, опубликованных внутри своего сообщества. Деньги уплачены, а результата - ноль.Огромный минус - предоставляемые ресурсы не рейтингуются по влиятельности, точнее влиятельность у них считается при приеме ресурса в список: было 5 кликов - берем, нет - досвиданья.

7. SocialTools - молодая биржа, которая только набирает обороты, но представляет широкий набор площадок, и кроме таких, как у Форумка, - пользователь YouTube. Т.е. если надо поднять рейтинг выложенного на ютубе видео - тут можно его купить.


8. И последняя рабочая биржа - для западного сектора, оплата в уе, англоязычный сегмент - SponsoredTweets. Эта площадка работает уже давно, в этом году она поглотила Magpee - ее пользователи со своими счетами плавно перекочевали к ней. Здесь только западные твиттеряне, есть система контроля за кликами, можно платить как за клики, так и за публикации. Выдается несколько рейтов ресурсов - от известного Klout, и до внутренних параметров CPMF (Cost Per Thousand* Followers), Follower Activation Rate (FAR) и др. На основании этих параметров выдается подсказка по минимальной стоимости. Тут можно купить и фолловеров.

02-12-2011. Добавлено. Совершенно новые 3 биржи: 
В клике - сила! и TwitAndLike - оплата за клики, и Leadogen - оплата за действия - заказы, покупки, заполнение анкет. В тестировании.

Все указанные биржи, кроме западной, работают через вебмани. Про SponsoredTweets пока ничего не могу сказать.


В начале статьи было сказано о возможности рекламы на условиях взаимовыгодного обмена :). Это, конечно, всем уже известные обмены ссылками между заинтересованными тематическими сайтами. Но, кроме этого, можно обмен производить внутри представленных выше систем. Например, вначале заработать деньги на рекламу внутри системы с помощью своего ресурса, а затем потратить их на рекламу своего ресурса. Тоже вариант :).

С точки зрения рекламы - все это, наверное, оправданные ходы. А вот с точки зрения семантики... Плодится уйма никому не нужного шума, который достаточно сложно анализировать ввиду нарастающего количества и временных факторов.

И вдогонку еще одна ссылочка по теме (англ):
8 признаков того, что вы - мошенник в SEO :) 8 Signs That You’re an SEO Scammer


Thursday, October 27, 2011

SEO Conferences materials

В последнее время многое поменялось в SEO, и об этом стоит узнать из материалов прошедших только что конференций по поисковой оптимизации.

   29 сентября, в Казанском IT-парке прошла вторая конференция по поисковой оптимизации SEO Conference 2011. Краткий отчет день 1 -- день 2


14-15 октября 2011 года в г. Харькове прошла  третья Всеукраинская Конференция «Поисковая оптимизация и продвижение сайтов в сети Интернет» Optimization.com.ua. Краткий отчет день 1 -- день 2

Из доклада Александра Люстика (LegatoSoft)  <Заработать на 1 сайте MFA за полгода 5000$>.

Что нужно сделать?
  • - Определиться с тематикой
  • - Определиться со свободной нишей
  • - Найти интересный материал
  • - Оформить и предоставить пользователям
  • - Загнать в индекс максимум страниц
  • - Собрать первичную статистику запросов
  • - Проработать внутреннюю перелинковку
  • - Каждый месяц повторять

Каковы затраты? 50 баксов за полгода потрачены на внешние ссылки. А результат вот какой - средний CTR страницы 8,73.

Александр Люстик: <Неужели все так просто? Не совсем. Все это вы могли бы выполнять со своим сайтом, но вы не делаете. Вы ведь не оптимизируете код, не прописываете ключевые слова: Сколько из вас делают со своими сайтами все перечисленные стадии оптимизации? Сколько у вас сайтов? Три? Тогда верю!>.


Из выступления Джиллиан Мьюсиг (Gillian Muessig), основатель и президент компании SEOmoz
Вывод: Меняется поисковая система - меняется и оптимизация. Техническая оптимизация - ключевые слова, структура сайта, ссылки, - эта оптимизация умерла в 2008 году.

В конце своего выступления Джиллиан дала несколько советов оптимизаторам на следующий месяц:
  • 10. SocialRank становится более важным, чем PageRank.
  • 9. Инфографика. Возьмите сложную тему и объясните ее с помощью картинок.
  • 8. Видео собирает очень много кликов, если среди ответов есть видео, то все больше людей выбирают именно его.
  • 7. Брендинг опять очень важен - хотя бы в поисковых подсказках.
  • 6. Работайте с социальными сетями, но не пытайтесь сразу там продавать. Например, можно задать необычный вопрос на странице бренда. Или можно учесть мнение пользователей и рассказать им об этом.
  • 5. Предлагайте оставить отзывы.
  • 4. Устанавливайте связи со своими пользователями в социальных сетях. Вовлекайте их в общение с вами.
  • 3. Играйте! Раздавайте баллы и очки, позволяйте людям переходить на новые уровни. Люди любят играть, это очень цепляет.
  • 2. Лидер в отрасли становится лидером по CTR.
  • 1. Сотрудничайте с лидерами!

Из выступления Джима Бойкина (Jim Boykin, Internet Marketing Ninjas, США), - как работать в условиях алгоритма Панда.
  • Если пользователи проводят на вашей странице меньше 15 секунд - у вас проблемы.
  • Если пользователи не ходят по вашему сайту, сразу закрывая его - у вас тоже проблемы.
  • Если пользователи не возвращаются на ваш сайт - это плохо.
  • А вот показатель отказов - сложный фактор. Важно, нашел ли пользователь ответ на свой вопрос, перед тем, как закрыть страницу.
  • Все довольные пользователи одинаковы. Они уходят с Google и ходят по сайту, на который перешли.
Если ваш сайт затронут Пандой - возможно, вам поможет активность в социальных медиа, социальные сигналы. Если вы думаете, что ваши сайты не затронуты Пандой - возможно, вы просто недостаточно хорошо проанализировали ситуацию.
Решения от Джима Бойкина:
  • - Изучайте Google Analitycs.
  • - Работайте с картой кликов и с картой движения мыши на сайте.
  • - Анализируйте, какие разделы пострадали больше - они тянут вниз остальные. Уберите их.
  • - Безжалостно удаляйте дубли.
  • - Сморите на страницы с точки зрения пользователя. Пользователи не должны думать.
  • - Поменяйте дизайн. Контент и юзабилити - самые важные факторы для борьбы с Пандой.
Юрий Кушнеров, (SeoLib.ru, Украина) представил доклад на тему «Влияние социальных сигналов (Twitter, Google +1, Facebook, Vkontakte) на поисковую выдачу Google.com.ua и Yandex.ua».
Обе поисковые системы Google и Yandex любят Facebook, а вот кнопки Одноклассников у лидеров почти нет. «Прокачанность» же Твиттера никак не влияет на выдачу. По крайней мере пока.
Все это не значит, что если вы поставите себе кнопки - вы подрастете в выдаче. Вполне возможно, что зависимость очень косвенная или даже обратная. Кроме того, большое количество кнопок может тормозить загрузку, поэтому надо относиться к их установке разумно.

16 октября 2011 г. в Киеве также состоялся SEMCamp  - – Первая конференция по интернет-продвижению продуктов и услуг на зарубежные рынки. В рамках мероприятия были освещены принципы и специфика работы с зарубежной аудиторией, особенности поисковой оптимизации и контекстной рекламы для зарубежных рынков, вопросы веб-аналитики, юзабилити сайтов и способы улучшения конверсии уже существующих интернет-кампаний. Краткий отчет Часть 1 и Часть 2.

Из доклада  Романа Доброновского (Promodo UA, Харьков) «Изменения в поисковом алгоритме Google: год 2011-й»

Что такое низкокачественный сайт?
  • - обилие страниц с неуникальным контентом;
  • - низкокачественный контент, пользователь сразу покидает такую страницу;
  • - рекламы больше, чем контента, и она навязчива;
  • - сайт для ботов, а не для людей.
В группу риска попадают:
  • Каталоги статей
  • Поиск людей
  • Сравнение цен
  • Сайты вопросов и ответов
  • Каталоги ссылок
  • Объявления
Что происходит?
Сильно падает трафик, аж до 80% . Результат - крушение бизнеса и увольнения. Что делать?
  • Удалить внутренние дубликаты;
  • Улучшить качества контента. Чтобы пользователи не уходили сразу;
  • Вынести ряд данных на поддомены. Например, самый лучший контент;
Как избежать проблем? - Использовать уникальный качественный контент без чрезмерной рекламы и переоптимизации.


Энн Смарти (Ann Smarty), редактор известного во всем мире SEO-ресурса SearchEngineJournal.com - «Гостевой блоггинг как инструмент получения естественных ссылок»
Гостевой блоггинг – это естественный и безопасный способ линкбилдинга.

И еще, на мой взгляд,  интересная информация из рассылки searchengines.ru

1. В рунете появился независимый рейтинг SEO-компаний «КтоПродвинул.ру». Теперь любой желающий может выяснить, кто занимается продвижением сайтов, выходящих в ТОП Яндекса по тем или иным запросам.
Рейтинг каждой SEO-компании зависит от совокупных позиций сайтов клиентов. Для каждого сайта по открытой модели рассчитывается коммерческая стоимость продвижения. SEO-компании ранжируются по совокупной оценочной коммерческой стоимости продвижения сайтов клиентов.
В рейтинге присутствуют все компании, которые были добавлены организаторами или самими SEO-компаниями. Участие в рейтинге открыто для всех SEO-компаний.

2. Опубликованы результаты исследования CMS для SEO.  

3.  Доклад Андрея Плахова на конференции YaC 2011, которая состоялась 19 сентября 2011 года в московском Центре Международной Торговли про Метрику качества Яндекса: wide pFound ()


4. Хороший перевод статьи Тома Шмитц Как эффективно оптимизировать несколько ключевых слов на одной странице?

5. На днях компания «Ашманов и партнеры» анонсировала запуск нового инструмента Analyzethis.ru, измеряющего загруженность сайтов рекламными материалами. Благодаря нововведению пользователи получили возможность узнать, какие поисковые машины рекомендуют сайты с наименьшим количеством раздражающей рекламы.

Как сообщают представители компании, в основе анализатора лежит специально разработанная технология распознавания рекламы, основанная на оценке скриптов, iframe'ов и других элементов кода страницы, которые могут вызывать рекламу. Для каждой страницы из результатов поиска вычисляется ее рекламная нагрузка, учитывающая «веса» всех найденных на странице рекламных элементов. Показатель каждого поисковика в данном анализаторе — это средняя рекламная нагрузка всех найденных страниц с учетом позиционных коэффициентов.
6. Новый поисковый сервис от Neiron Search Tools (NST)



За информацию спасибо рассылке www.searchengines.ru

Thursday, July 21, 2011

Google сворачивает Google Labs

Вчера очень много шума наделало сообщение Google о сворачивании своего проекта Google Labs. Получив и проанализировав массу прототипов проектов, Google решили переориентироваться :):
While we’ve learned a huge amount by launching very early prototypes in Labs, we believe that greater focus is crucial if we’re to make the most of the extraordinary opportunities ahead.

 from Official Google Blog
Как сообщается в заметке, не все проекты будут закрыты, часть из них продолжит свое существование, но в другом ракурсе... В общем, следите за Google Labs website.

...
Да уж, как-то все очень зыбко выходит. Стоит начать использовать в своем проекте какой-нибудь из фрагментов Google Labs, как через некоторое время приходится искать новые решения и все переделывать - то формат поменяют, то перестают поддерживать, то еще что-нибудь.... Кстати, пользовательский поиск (по всему и-нету, API) они уже давно перестали поддерживать, увы :(. Пришлось переделывать и пробовать использовать поиск Yahoo. Конкуренты не дремлют :). Но все в этой среде очень недолговечно, - вскоре и Yahoo, наверное, перестанет поддерживать эту функцию. Так что полагаться на API, особенно в серъезных проектах не стоит, разве что если подписывать с провайдером услуги "полновесный" контракт.

    

Friday, June 24, 2011

Microdata4Google

На пути к Semantic Web. Microdata.
(Также полезно для SEO, семантическое ядро сайта, семантическая разметка сайта)

Одним из важных шагов к достижению Семантического Веба (Semantic Web) с времен разработки RDF, стало создание лидерами поисковой индустрии Google, Bing и Yahoo! ресурса schema.org. Schema.org является вендорной спецификацией набора из около 300 мини-схем (или структурированных мета-данных), которые можно использовать для разметки (тегирования) информации, представленной на веб-страницах. Эти схемы организованы в небольшую стройную иерархию и покрывают (охватывают) множество популярных предметных областей (ПрО) – от представления организаций, отдельных людей и до продуктов, товаров и творческой деятельности – то, про что можно написать и охарактеризовать и опубликовать в вебе.

Эти спецификации схем данных основаны на стандартах микроданных (microdata), входящих в состав спецификации HTML5. Микроданные – это набор записей, содержащих описания, представленных парами ключ-значение (тег-значение), который можно включать (внедрять) (embedded) в html-код веб-страницы. Эти схемы микроданных подобны микроформатам, однако они шире в покрытии тем и более расширяемы. Помимо этого, микроданные проще, чем RDFa – другой спецификации W3C, которую организаторы schema.org называют “… расширяемым и очень выразительным, но значительная сложность языка является причиной медленного принятия общественностью».

(Про микроформаты и микроданные, инструментарий от Яндекса, Гугла и т.п.)

Появление микроданных вызвало большую бурю в научном сообществе о том, что эта инициатива нивелирует труд десятилетий по развитию и популяризации RDF и RDFa. На наш взгляд, эта инициатива не является отказом от RDF, а есть логичное развитие идей семантического веба с учетом развития, достижений и изменения уровня понимания проблемы и накопленных знаний.

RDF и его модель представления данных тройками есть простейший и наиболее выразительный способ представления любых данных и связей между данными. Поэтому, RDF и его развития, такие как OWL и онтологии, предоставляет ясную и гибкую каноническую модель данных для представления существующих данных или схем данных. Вне зависимости от исходной формы исходной информации, ее можно разбить, выделить и представить в формате RDF, а также связать с любой другой информацией. Поэтому часто RDF называют универсальным языком представления данных.

Однако зачастую простейшие данные не нуждаются в сложности RDF. Научное сообщество W3C не раз аргументированно заявляло о важности наивных структур представления данных. Большинство из таких типов представляют собой простые пары ключ-значение, а объект высказывания предполагается. К этому типу относятся и структурированные записи в Википедии, называемые инфобоксами (infoboxes). Также простые форматы данных имеют JSON и много других простейших форматов данных.

Основным является утверждение, что RDF предоставляет универсальную модель данных для любого вида данных, а также средство обмена данными. Получившие распространение форматы обмена данными, в отличие от RDF, легко понимаемы, легко выразимы и, следовательно, получили широкое применение. Заявка про использование микроданных лидерами поисковых систем веба означает реальное изменение в возможностях  и выразительности структурированных данных, представленных в вебе. Количество структурированной информации резко возрастет.

Чем больше появляется структурированной информации, тем больше получает распространение, внимание и развитие применение RDF, который, с наступлением своего времени, будет использоваться повсеместно для взаимодействия с этими данными. Скоро должны появиться множество утилит, инструментов и сервисов, позволяющих автоматически добавлять такие структуры (структурированные данные) к веб-страницам с помощью одного клика. 

Google все больше внимания уделяет структурированным данным. С каждым днем все больше структурированных данных появляется в результатах выдачи Google; компания запустила очень активную программу по извлечению структурированных данных из текстовых данных и таблиц. Google видит, что поисковые потребности постепенно отходят от поиска по ключевм словам к структурам, взаимосвязям, а также фильтрации и таргетировании результатов. Эти преимущества и возможности вытекают из структур, так же как и семантические взаимосвязи между сущностями.

Многие задаются вопросом, почему Google проталкивает микроданные, а не микроформаты или RDFa или более ранние их варианты. Конечно, Google имеет коммерческие интересы в расширении и увеличении полезности веба. Заявив об использовании микроданных, которые проще в понимании и использовании рядовыми пользователями, поисковые магнаты способствуют ускорению публикации таких данных в вебе, генерированию таких данных и т.п. В дальнейшем, когда придет время и количество опубликованных структурированных данных достигнет необходимого количества (т.е. Структурированный веб начнет становиться семантическим), эти монстры откажутся от них и перейдут к более универсальному, гибкому и продуманному RDF
Модель данных заявленных микроданных достаточно общая и получена из RDF Schema (которая в свою очередь получена из Cycl) (Data Model, http://www.schema.org/docs/datamodel.html).

Она содержит:
    1. набор типов, организованных в иерархию множественного наследования, где каждый тип может быть подклассом множества классов.
    2. набор свойств, где:
-         - каждое свойство может иметь одно или более типов в качестве доменов (domain). Свойство может использоваться для экземпляров любого из этих типов.
-         - каждое свойство может иметь одно или более типов в качестве диапазонов (range). Значение/я свойства должны быть экземплярами как минимум одного из этих типов.

Выбор решения разрешить использовать множественные домены и диапазоны носит чисто прагматический характер. Поскольку вычислительные свойства систем с одним доменов и диапазоном проще в понимании, на практике, это будет способствовать созданию множества искуственных типов, которые могут быть использованы напрямую как домены или диапазоны некоторых свойств.

Микроданные, по заявлению авторов, имеют отображение на RDFa RDFa версии 1.1 разметки «почти» изоморфно версии микроданных. Схема микроданных имеет описание в OWL-формате.

Иерархия типов, представленная на сайте, как заявляют авторы, не направлена стать глобальной онтологией мира. Она только охватывает типы сущностей, которые по мнению организаторов (Microsoft, Yahoo! и Google) могут представлять интерес и быть обработанными их поисковыми системами в ближайшем будущем.

Основным девизом этого начинания, можно сказать, является фраза с сайта schema.org:
In the spirit of "some data is better than none", we will accept this markup and do the best we can.

Имхо, судя по всему, заявление о поддержке микроданных и появлении schema.org является отправной вехой на пути к Semantic Web.
По материалам сайта schema.org и обсуждений научного сообщества Semantic Web.     

Wednesday, May 18, 2011

Об атрибуте rel="canonical"

Появился новый атрибут, учитываемый Google. Подробнее на хелп-странице гугла:
Об атрибуте rel="canonical"

Friday, May 6, 2011

Google translator - в помощь переводчику

Понадобилось мне перевести большой объем - а тут Google translator новинку подкинул - Translator Toolkit. Мне понравилось:

Translator Toolkit

Are you a professional translator? You can increase your productivity by using Google Translator Toolkit. Translator Toolkit features WYSIWYG UI for context when translating, machine translation, glossaries and the ability to upload and download your translation memories. 

Загружаешь в гугл-документы, и в двух паралельных окнах правишь перевод. Удобно. Процесс явно ускоряется. Обрабатывает пока только вордовские, опен-офисные, текстовые документы.
Как пользоваться Google Translator Toolkit показано в видео:








Главное, чтобы связь была нормальной! :)
    

Wednesday, May 4, 2011

Google - not search - its knowledge!

Компания Google заявила, что она теперь относится не к индустрии поиска, а к области знаний.
Переориентация внимания на качество контента (quality of content), а значит знания (knowledge).
Как заявлено, Google планирует заниматься организацией информации для понимания и содействия созданию знания (organization of information to “understanding and facilitating the creation of knowledge.” ).

Итак, флагман поисковок, вплотную подходит к семантизации контента и реализации Семантического Веба (Semantic Web).

Источник:
searchengineland.com (англ.)


    

Tuesday, March 1, 2011

Анализ апдейтов Google PageRank (Google MayDay Update Analyse)

Анализ апдейтов Google PageRank

Вот, благодаря твит-контактам, попала на замечательную презентацию, где рассказывается про эксперимент и полученные результаты анализа различных действий (операций) по продвижению сайта (SEO), и их влиянию на рейтинг (Google PageRank).
Сайт, увы, на немецком. Презентация, слава богу, на английском.

Сделаны очень интересные выводы, о важности контента, пропорциональности контента, ссылок и т.п.


Кто не может посмотреть презентацию - даю в своем изложении

Выводы при оптимизации (статичного!) сайта:
1. Улучшение качества контента

2. Отказ от "глубоких" внутренних ссылок - (максимальная глубина ?)

3. Изменение архитектуры сайта, чтобы максимальных путь от любой страницы к другой самой дальней странице был не более 2-х кликов мышкой.


4. Хороший результат при переорганизации сайта дает изменение адресов страниц (URL). Они воспринимаются как новые и заново переиндексируются.

5. Постоянное обновление контента сайта также повышает ранк (при сохранении статичного контента все достижения, полученные при выполнении шагов 1-4, были утеряны назад в течение 5-ти недель).

6. Контент (новости, обзоры и т.п. динамичная часть) не обязательно должна быть уникальной - она как приправа к основному блюду (основному, статичному контенту), поскольку эта часть контента постоянно обновляется (и заставляет робот индексировать его). Исследователи сделали открытие - по закону Парето - 80 процентов синдицированного контента (из новостных источников, БД и т.п.) и 20 процентов основного уникального собственного контента - дает восприятие (ботом) стопроцентного уникального контента.

7. Для ускорения индексации - рекомендуется использовать даты как в самом тексте, так и в мета-тегах.

8. Важно - следить за тем, чтобы вся информация на сайте в любой момент времени была согласована!, актуальна!, корректна.

Ну и еще одна полезная ссылка - http://seoforums.org

От себя замечу, что все приведенные здесь рекомендации в большей или меньшей степени применялись и мной на практике, и результаты были аналогичные.


    

Google изменил алгоритм, а Yahoo провело исследование поиска

Google наконец изменил алгоритм ранжирования сайтов, чтобы избавиться от спама и дубликатов.

Источник новости: www.searchengines.ru

Yahoo провела «трехмерное» исследование поиска - «кто ищет», «что ищет» и «как ищет». Работа исследователей была представлена на конференции WSDM в Гонконге.

Измерения определялись при помощи демографических данных: пола, возраста, дохода и уровня образования, совокупности различных запросов, которые были привязаны к тематикам и географическим регионам. Вопрос «как» искали пользователи, изучался при помощи таких показателей как длина сессии и число запросов за сессию.

Ознакомиться с частью исследований можно при помощи сервиса Yahoo! Clues. Там показываются самые популярные текущие запросы, связанные запросы, и статистика по демографическим данным. Полные данные исследования доступны по ссылке research.yahoo.com (pdf) .

Источник новости: www.searchengines.ru

    

Monday, February 21, 2011

Новый релиз Google App Engine

Google продолжает развивать свое предложение - платформа-как-сервис (platform-as-a-service) - Google App Engine API. В этом году уже выпущено 2 релиза Последний имеет очень нужный апдейт для XMPP и Task Queue API. Более ранний релиз этого года направлен на решения для критичных приложений, а именно - High Replication Datastore.

В анонсирующей публикации Google перечислены основные возможности последней версии. Этот релиз доступен для Python и Java.

XMPP API является ключевым сервисом инфраструктуры Google App Engine, позволяющим приложениям получать и отправлять сообщения из любого XMPP-совместимого сервиса, как например, Google Talk. Основная функциональность, добавленная в релизе 1.4.2. - обработка уведомления о подписке и о присутствии в сети (Subscription and Presence notifications). Т.е. разрабатываемое приложение может теперь получать уведомления, если пользователь вошел или вышел из сети, и когда его статус изменился. Приложение также может извещать пользователей о своих изменениях при помощи вызова sendPresence() и опционально сообщать свой статус.

Сервис Task Queue API позволяет фоновую обработку включения задач в очередь. App Engine будет их выполнять в зависимости от заданного критерия. Также это API имеет возможность удалять задачи. И в дополнении ко всему, API теперь имеет максимальную возможность выполнять до 100 задач в минуту и позволяет приложению задавать максимальное количество параллельных запросов в очереди.

Следующие возможности Google App Engine будут включать в себя SSL для доменов, не относящихся к appspot.com, инструментарий для импорта-экспорта в-из хранилища данных и интеграция с Google Storage API.

Источник новости: programmableweb.com (engl.)

    

Популярное

Использование материалов сайта

Информация, представленная на сайте, может свободно использоваться и распространяться при обязательном указании активной прямой ссылки на сайт http://in-search-of-semantics.blogspot.com/, а тексты научных статей – при указании авторства и ссылки на бумажную публикацию.

При размещении текстов статей на своих сайтах, блогах и пр., пожалуйста, присылайте ссылки.
Комментарии перед публикацией предварительно модерируются.

Хотите сказать спасибо автору? Не откажусь :) - Поставьте ретвит на пост, или другую социальную закладку. Спасибо.