15:25

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
18.03.2011 в 09:48
Пишет  Masudi:

Ну и поржать.


URL записи

15:23

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
18.03.2011 в 10:01
Пишет  Top-X:

Гирмиона атамстила Гаре


URL записи

15:05

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
18.03.2011 в 11:43
Пишет  Мифическая личность:

Видеоролик "На Т-34 по Волгограду" Донского Военно-
исторического музея




URL записи

12:18

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 23:27
Пишет  Мифическая личность:

Реклама
Как я и обещал - пиарю небольшой военно-исторический музей в Таганроге - интерактивный 3D ролик
Кстати, это всё частная коллекция одного человека.

URL записи

08:00

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
18.03.2011 в 00:04
Пишет  Susanin:

Это шедевр
15.03.2011 в 23:05
Пишет  rony-robber:

Внезапно)
Я говорила, что люблю «Сказ про Федота-стрельца»? Так вот, я его очень люблю) И вообще мне кажется, что эта сказка Филатова настолько универсальна, что подходит почти для любого случая. А уж к российским реалиям она просто идеально льнёт.



Дальше)

URL записи

URL записи

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.








Кросспост: К ветеринарчику


@темы: Юмор, Видео

07:50

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 21:50
Пишет  D_D_D:


как себя правильно вести, если рядом кто-то сморкается читать дальше



URL записи

07:47

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
18.03.2011 в 02:46
Пишет  backyard:



URL записи

20:33

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 19:11
Пишет  Наоки.:



URL записи

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
Странная свистопляска с законами.


Госдума сейчас обсуждает закон об Интернете, если он будет принят, блокировка сайтов будет возможна только при наличии соответствующего решения суда. Это заявление Ольги Носковой, члена думского комитета по информполитике (Единая Россия). То же касается доступа в Интернет. Обсуждаемый документ предусматривает прямой запрет на блокировку и отключение пользователей без соответствующего решения суда. Ограничение на доступ в интернет и блокировка сайта может наступить при доказанном в судебном порядке нарушении свобод и прав других граждан.

Интересно, что закон о полиции содержит указание на возможность заблокировать любой сайт при нарушении им авторского права без решения суда. Получается несоответствие законов.

Вероятно, закон об Интернете в ближайшем будущем будет вынесен на общественное обсуждение в Интернет.










@темы: Россия

19:50

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 18:35
Пишет  Emma Kutarba:



URL записи

18:31

Ха!

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.








Кросспост: Ха!


@темы: Юмор, Linux

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
сначала землетрясение в Японии, теперь еще Internet Explorer 9 вышел










@темы: Юмор

16:32

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
16:23

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 11:43
Пишет  З. ГорынычЪ:

Новости из Японии, все хуже и не удивительно ибо:
Интересно, почему никто не пишет о том, что катастрофа на АЭС «Фукусима1», собственно, не совсем японская. И даже совсем не японская! А американская!

Реакторы Фукусимы были изготовлены по проектам компании General Electric. Из них четыре были изготовлены самой GE, два – японскими фирмами. При этом, ещё при их проектировании в 70-е годы среди группы американских инженеров возник конфликт: трое инженеров подписали докладную записку, в которой говорилось, что реактор спроектирован неправильно, технически безграмотно и опасно. В докладной записке Дейла Г. Брайденбо (Dale G. Bridenbaugh) сказано, что в таком виде реактор наверняка взорвется, как только произойдет сбой в системе охлаждения. General Electric проигнорировал особое мнение инженеров, в результате чего ядерщики ушли в отставку, не подписав чертеж «Версии 1в». А General Electric возвела в Японии АЭС по фактически «аварийному» проекту.

Дейл Брайденбо придерживается самых пессимистических прогнозов течения ядерной катастрофы на Фукусиме. Он считает, что рано или поздно водородные взрывы разрушат внутренние оболочки и возникнет ситуация, ничем особым не отличающаяся от Чернобыльской катастрофы. Только на этот раз будут гореть шесть реакторов, а не один. abcnews.go.com/print?id=13141287

То есть катастрофа Фукусимы это, фактически, катастрофа американская. Американских технологий и американских же строителей. Ведь АЭС «Фукусима1» проектировалась и строилась при участии и под контролем специалистов General Electric!

Можно только представить, что творилось бы в мире, если бы где-то разом рванули четыре российских (советских) реактора. Все бы давно уже забыли У КОГО они рванули, но на все лады и во всю мощь долбили бы «варварскую», «отсталую» Россию с её «примитивными пещерными технологиями». А тут все словно в рот воды набрали. Более того, как сообщил мой источник в МИДе, американцы напрямую обратились к нашему Росатому с просьбой «не привлекать внимания» к факту того, что АЭС «Фукусима1» является по сути американским проектом и продуктом американских технологий.

Получаются двойные стандарты даже в катастрофах!

В реальности же США устроили Японии вторую Хиросиму и теперь просто умывают руки...

URL записи

16:19

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 11:50
Пишет  defecator:

месть пушистого


URL записи

15:22

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 07:16
Пишет  Hell Writer:

без нагнетения паники, "как ходить по зараженной радиацией местности"
Я с Японией волну не гоню, но по предварительной информации, радиоактивное облако приблизится к границам России 18-19 марта.
Владивостокцам пригодится. Сильно бояться не надо, но некоторые пункты надо знать.
Самое важное - знать, какая радиация опасна, а какая нет.
Стилистика написания не ахти, но инфа полезная и осортирована по пунктам.

читать дальше

спер с бложика Беркема, периодически там годная инфа вылазит.

URL записи

09:56

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
17.03.2011 в 05:22
Пишет  Roldo:

Очевидцы утверждают, что недавно у восточного берега Японии из воды показалась голова Годзиллы. Оглядев масштаб происшествия, ящер как-то сразу погрустнел и удалился обратно в Тихий океан.

URL записи

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
Без малого 100 миллионов пользователей — такова аудитория ВКонтакте, которую надо обслуживать. Быстро и без перебоев. Долгое время подробности технической реализации ВКонтакте оставались секретом. Но недавно самая популярная в России социальная сеть пролила немного света на то, как она все-таки устроена. В конце октября в Москве состоялась конференция HighLoad++, на которой представители ВКонтакте в лице Павла Дурова и Олега Илларионова, наконец, рассказали кое-что об архитектуре социальной сети.

читать дальше


Взаимодействие участников социальной сети происходит практически в режиме реального времени: все друзья должны немедленно узнавать о том, что произошло с каждым из участников. Сайт должен быть доступен 100% времени. Как это удается?

Платформа


Для нас, конечно, особый интерес представляет именно архитектура проекта: как взаимодействуют основные компоненты системы, какие собственные разработки потребовались, какими трюками пришлось воспользоваться. Но прежде, чем перейти к ней, необходимо ознакомиться с базовыми вещами — используемыми технологиями и продуктами.


В качестве основной операционной системы используется Debian Linux — решение, проверенное временем, один из самых старых и стабильных современных дистрибутивов. Для балансировки нагрузки между серверами приложений используется HTTP-сервер nginx, работающий в режиме reverse proxy. В его обязанности входит держать соединение с браузером пользователя и передавать запросы серверам, ответственным за исполнение PHP-кода, а также контролировать попадание результата обратно в браузер. PHP-код исполняется посредством модуля mod_php для Apache — альтернативных вариантов довольно много, особенно на основе протокола FastCGI, но руководство ВКонтакте пошло по более консервативному пути в этом вопросе, воспользовавшись самым проверенным временем решением. Никаких особых систем оптимизации производительности PHP-кода не используется (например, в Facebook написали свой компилятор из PHP в C под названием HipHop), единственной внешней оптимизацией является кэширование оп-кода посредством всем доступного решения XCache.


Ситуация с хранением данных выглядит достаточно размыто: с одной стороны, активно используется собственная система управления базами данных, написанная на C и созданная «лучшими умами» России, с другой — часто упоминалась MySQL в роли основного хранилища. Подробнее про собственную базу данных ВКонтакте я расскажу ниже. Говоря о хранении данных, нельзя не упомянуть о таком важном аспекте, как кэширование часто используемой информации (расположение её в оперативной памяти для быстрого доступа). Для этого используется очень популярный продукт в этой области — memcached. Если ты не слышал: эта система позволяет осуществлять очень простые атомарные операции, такие как расположение и получение произвольных данных по ключу. Основной фишкой является молниеносно быстрый доступ и возможность легкого объединения оперативной памяти большого количества серверов в общий массив для временного хранения «горячих» данных.


Сторонние проекты, не являющиеся ключевыми для ВКонтакте, часто реализуются либо с использованием довольно экзотических решений, либо, наоборот, на самых простых технологиях. Например, сервис мгновенного обмена сообщениями реализован на node.js с использованием протокола XMPP aka Jabber (мы еще к нему вернемся). Конвертирование видео реализовано на самой простой и эффективной библиотеке — ffmpeg, на ней же работает очень популярный видео-плеер VLC.

Архитектура


Самым заметным отличием от архитектуры многих других крупных интернет-проектов является тот факт, что сервера ВКонтакте многофункциональны. Т.е. нет четкого разделения на серверы баз данных, файловые серверы и т.д. — они одновременно используются в нескольких ролях. При этом перераспределение ролей происходит в полуавтоматическом режиме с участием системных администраторов. С одной стороны, это оптимизирует эффективность использования системных ресурсов, что хорошо, но с другой — повышает вероятность конфликтов на уровне операционной системы в рамках одного сервера, что влечет за собой проблемы стабильности. Впрочем, несмотря на использование серверов в разных ролях, вычислительные мощности проекта обычно используются менее чем на 20%.


Балансировка нагрузки между серверами происходит по многоуровневой схеме, которая включает в себя балансировку на уровне DNS (домен обслуживается с помощью 32 IP-адресов), а также маршрутизацию запросов внутри системы, причем разные сервера используются для разных типов запросов. Например, генерация страниц с новостями (теперь это принято называть микроблогом) работает по хитрой схеме, использующей возможности протокола memcached по параллельной отправке запросов на получение данных по большому количеству ключей. В случае отсутствия данных в кэше, аналогичный запрос отправляется системе хранения данных, а полученные результаты подвергаются сортировке, фильтрации и отбрасыванию лишнего уже на уровне PHP-кода. Похожим образом этот функционал работает и в Facebook (они недавно обменивались опытом), только вместо собственной СУБД в Facebook используют MySQL.


В стенах ВКонтакте было разработано большое количество софта, который более точно удовлетворяет потребностям проекта, чем доступные opensource и коммерческие решения. Помимо упоминавшейся собственной СУБД у них есть система мониторинга с уведомлением по СМС (Павел сам помогал верстать интерфейс), автоматическая система тестирования кода и анализаторы статистики и логов.


В проекте используется достаточно мощное оборудование, ориентировочно были названы следующие характеристики серверов:

— 8-ядерные процессоры Intel (по два на сервер, видимо);

— 64 Гб оперативной памяти;

— 8 жестких дисков;

— RAID не используется (репликация и резервное копирование осуществляется на программном уровне).


Примечательно, что сервера не брендированные, а собираются специализированной российской компанией. Сейчас оборудование проекта расположено в 4 датацентрах в Санкт-Петербурге и Москве, причем вся основная база данных располагается в питерском датацентре, а в Москове хостится только аудио и видео. В планах сделать репликацию базы данных с другим датацентром в Ленинградской области, а также использовать Content Delivery Network для повышения скорости скачивания медийного контента в регионах.


Многие проекты, сталкивающиеся с большим количеством фотографий, часто изобретают собственные решения по их хранению и отдаче пользователям. Об этом был первый вопрос, заданный Павлу из зала: «Как вы храните изображения?» — «На дисках!». Так или иначе, представители ВКонтакте заявили, что вся эта куча фотографий всех цветов и размеров просто хранится и отдается с файловой системы (используют xfs) большого количества серверов, без дополнительных изысков. Смущает разве что тот факт, что у других крупных проектов такой подход не сработал — наверное, они не знали волшебного слова :).


Не менее волшебной представляется та самая собственная база данных на C. Этому продукту, пожалуй, было уделено основное внимание аудитории, но при этом почти никаких подробностей о том, что он, собственно говоря, собой представляет, так и не было обнародовано. Известно, что СУБД разработана «лучшими умами» России, победителями олимпиад и конкурсов TopCoder, а также что она используется в самых высоконагруженных сервисах ВКонтакте:

— Личные сообщения

— Сообщения на стенах

— Статусы

— Поиск

— Приватность

— Списки друзей


В отличие от MySQL используется нереляционная модель данных, а большинство операций осуществляется в оперативной памяти. Интерфейс доступа представляет собой расширенный протокол memcached. Специальным образом составленные ключи возвращают результаты сложных запросов (чаще всего специфичных для конкретного сервиса).


Система проектировалась с учетом возможности кластеризации и автоматической репликации данных. Разработчики хотели бы сделать из данной системы универсальную СУБД и опубликовать под GPL, но пока не получается из-за высокой степени интеграции с остальными сервисами.

Подпроекты


Сервисы аудио и видео являются побочными для социальной сети, на них создатели проекта особо не фокусируются. В основном это связано с тем, что они редко коррелируют с основной целью использования социальной сети — общением, а также создают большое количество проблем. Видеотрафик — основная статья расходов проекта, плюс всем известные проблемы с нелегальным контентом и претензиями правообладателей. 1000—1500 серверов используются для перекодирования видео, на них же оно и хранится. Медиа-файлы банятся по хэшу при удалении по просьбе правообладателей, но это неэффективно и планируется усовершенствовать этот механизм. Очевидно, речь идет о разработке более интеллектуального алгоритма распознавания аудио- и видео-контента по тегам, как это, к примеру, реализовано в YouTube, где загруженный видеоролик, нарушающий лицензию, может быть автоматически удален уже через несколько минут после загрузки.


Как известно, некоторое время назад появилась возможность общаться на ВКонтакте через протокол Jabber (он же XMPP). Протокол совершенно открытый и существует масса opensource реализаций. По ряду причин (среди которых проблемы интеграции с остальными сервисами ВКонтакте) было решено за месяц создать собственный сервер, представляющий собой прослойку между внутренними сервисами ВКонтакте и реализацией XMPP протокола. Реализован он на node.js — выбор обусловлен тем, что Javasсript знают практически все разработчики проекта, к тому же это хороший набор инструментов для реализации задачи. Сложным моментом стала работа с большими контакт-листами. У многих пользователей количество друзей ВКонтакте измеряется сотнями и тысячами, высока активность смены статусов: люди появляются и исчезают из онлайна чаще, чем в других аналогичных ситуациях. К тому же необходимо было реализовать тесную интеграцию с внутренней системой обмена личными сообщениями ВКонтакте. В результате на сервисе 60-80 тысяч человек онлайн, в пике — 150 тысяч. TCP/HTTP-балансировщик нагрузки HAProxy обрабатывает входящие соединения и используется для распределения запросов по серверам, а также развертывания новых версий.


При выборе системы хранения данных думали о нереляционных системах хранения данных (в частности, о MongoDB), но в итоге решили воспользоваться привычной MySQL. Сервис функционирует на 5-ти серверах разной конфигурации, на каждом из которых работает код на node.js (по 4 процесса на сервер), а на трех самых мощных — еще и MySQL. Интересной особенностью является отсутствие связи между группами друзей в XMPP с группами друзей на сайте — сделано по просьбе пользователей, которые не хотели, чтобы их друзья из-за плеча видели, в какой группе они находятся.


Важным подпроектом является также интеграция с внешними ресурсами, которую в условиях высоконагруженного сервиса реализовать далеко не так просто. Все чаще на страницах сторонних проектов можно увидеть виджеты «Мне нравится», позволяющими быстро поделиться интересным постом со своими друзьями, а также небольшие блоки «Мы ВКонтакте» с данными о пользователях внутри привязанной группы. Основные шаги, предпринятые в этом направлении, с небольшими комментариями:


1. Максимальная кроссбраузерность для виджетов и IFrame-приложений на основе библиотек easyXDM и fastXDM, обеспечивающих взаимодействие между сторонним ресурсом и программным интерфейсом ВКонтакте. Таким образом была решена проблема кроссдоменного взаимодействия и вопрос работы во всех браузерах.


2. Кросс-постинг статусов в Twitter, реализованный с помощью очередей запросов.


3. Кнопка «поделиться с друзьями», поддерживающая openGraph-теги и автоматически подбирающая подходящую иллюстрацию (путем сравнивания содержимого тега


4. Возможность загрузки видео через сторонние видео-хостинги (YouTube, RuTube, Vimeo, и т.д.).

Не секрет


Завеса тайны насчет технической реализации ВКонтакте была немного развеяна, опубликовано куча интересных аспектов, но все же многие моменты по-прежнему остаются секретом. Возможно, в будущем появится более детальная информация о собственной СУБД ВКонтакте, которая, как оказалось, является ключом к решению всех самых сложных моментов в масштабируемости системы. Сейчас, как бы кто ни относился к ВКонтакте, сервис является очень интересным с точки зрения построения высоконагруженных систем. Все-таки 11 миллиардов запросов в день, высочайший аптайм и почти 100 миллионов пользователей — дорогого стоят.

Источник: www.xakep.ru










@темы: IT, Копипаста

22:09

Если человек не знает, куда он плывёт – для него нет благоприятных ветров.
16.03.2011 в 19:27
Пишет  Мифическая личность:

Для себя, чтобы потом не искать.
Китайский синдром — ироническое выражение, первоначально обозначавшее гипотетическую тяжёлую аварию на АЭС с расплавлением ядерного топлива и проникновением его в почву с проплавлением конструкций энергоблока. Идея имела большое влияние на общество и инженерную мысль, несмотря на то что в реальности ни одного такого события не произошло. В процессе развития выражение приобретало и новые смысловые оттенки.
читать дальше

Фильм на торренте - The China Syndrome

URL записи