`

Schneider Electric - Узнайте все про энергоэффективность ЦОД


СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Toshiba обещает «квантовое» быстродействие на классических ПК

Корпорация Toshiba объявила о прорыве в технологиях комбинаторной оптимизации — создании алгоритма, который обеспечит по меньшей мере 10-кратный выигрыш в быстродействии и масштабируемости, по сравнению с известными методами решения задач, связанных с перебором огромного количества вариантов для выбора оптимальной комбинации.

Такие задачи имеют важные приложения, например, управление дорожным движением для устранения заторов, прогнозирование эффективных молекулярных структур при разработке новых лекарств, составление портфелей прибыльных финансовых продуктов. Однако даже на самых совершенных сегодняшних суперкомпьютерах их решение выливается в непомерные траты машинного времени.

Идеальной платформой комбинаторной оптимизации могут стать компьютеры, работа которых основывается на принципах квантовой механики. Однако, несмотря на все усилия лидеров индустрии, масштабирование квантовых систем до уровня реальных задач, вероятно, останется актуальной проблемой в обозримой перспективе. «Пройдет немало времени, прежде чем мы начнём использовать на практике квантовые вычисления, — считает Казуюки Такеда (Kazuyuki Takeda), генеральный менеджер Mizuho-DL Financial Technology, исследовательского подразделения одной из крупнейших финансовых групп Японии. — По крайней мере, лет 10 или около того».

То что предлагает Toshiba, не совсем квантовые вычисления, но может довольно неплохо их заменить. Для того, чтобы быстро находить точные решения, «симулированный бифуркационный алгоритм» использует явления бифуркации, адиабатические и эргодические процессы классической механики. Интересно, что идея этого сугубо классического алгоритма родилась в 2015 году, вдохновлённая принципами теории квантовых вычислений.

Симулированный бифуркационный алгоритм работает на ПК и серверах, изготовленных из доступных в продаже компонентов, не нуждаясь, как квантовые компьютеры, в многомиллионных капиталовложениях и в охлаждении до криогенных температур. Ещё одно его важное преимущество заключается в простоте масштабирования распараллеливанием вычислений на многие процессоры.

Масаюки Одзэки (Masayuki Ohzeki), доцент Университета Тохоку, участвующий в совершенствовании этой технологии Toshiba, считает, что в следующие пять лет мы станем свидетелями применения бифуркационного алгоритма в ряде «квантовых» приложений, но в каждом конкретном случае целесообразность его использования будет зависеть от того, «насколько хорошо улучшение производительности сочетается с методами упрощения вычислений».

В апреле 2019 г., когда вышла статья с первым описанием алгоритма, она была встречена в мире с смесью надежды и скептицизма. Анонсированный тогда план — создать и выпустить сервисную платформу, которая удовлетворит все потребности оптимизации в логистике, финансах и других сферах современного общества — воплотить в жизнь в указанные сроки (к концу 2019 года) не получилось. Его сменило другое оптимистичное обещание: завершить испытания в реальных условиях к марту 2021 года. Для этого к участию в проекте были привлечены профессионалы из финансовой индустрии. Соответственно, приоритетным было избрано финансовое приложение — расчёт случайных возможностей выгодных моментальных сделок на валютных биржах.

В октябрьском анонсе компания утверждала, что её модель идентифицировала потенциальные возможности арбитража в валютном трейдинге всего за 30 миллисекунд — обеспечивая себе 90-процентные шансы совершения прибыльных сделок.

Эта информация вызвала поток запросов от финансовых учреждений в Японии и за рубежом, однако Toshiba не торопиться предоставить доступ к испытаниям для заинтересованных сторон. Одной из причин, вероятно, является недоработанность алгоритма, который требуется перестраивать с нуля для каждой новой задачи.

Впрочем, «отец» бифуркационнаго алгоритма, Хаято Гато (Hayato Goto), намекнул, что уже опубликованные сведения об этой технологии, всего лишь вершина айсберга. Солидный массив внутренних наработок, по его словам, внушает уверенность, что Toshiba примерно на год опережает любых возможных последователей в этой области.

Toshiba обещает «квантовое» быстродействие на классических ПК

Сделка США-Китай положит конец торговой войне, но пошлины пока остаются

Долгожданное торговое соглашение США с Китаем, подписанное на прошлой неделе, предусматривает ряд важных перемен в отношениях между двумя крупнейшими экономическими державами, которые, впрочем, будет довольно трудно воплотить в жизнь и гарантировать выполнение.

Трампу удалось продавить ряд нужных Америке условий: Китай взял на себя обязательства потратить дополнительные 200 млрд. долл. на покупку по конкурентоспособным ценам американских товаров и услуг к 2021 г., проводить более открытую финансовую политику, а также положить конец деловым практикам, раскритикованным администрацией Трампа. Но текст соглашения не дает достаточно информации, чтобы судить, как это будет работать в реальности, и не сможет ли Китай трактовать букву договора иначе, чем Соединенные Штаты.

В частности, вице-премьер Лю Хе, который подписал соглашение в Белом Доме со стороны Китая, пояснил, что китайские предприятия будут покупать американские товары и услуги «исходя из рыночного спроса в Китае», то есть, напрашивается предположение, что Китай не рассматривает установленные объёмы продаж (52,4 млрд долл. – энергоносители, 32 млрд долл. – продукция сельского хозяйства, 77,7 млрд долл. – промышленные товары, 37,9 млрд долл. – сервисы) как нечто незыблемое.

Неясно и что произойдёт после того, как эти два года закончатся. В соглашении довольно обтекаемо говорится, что стороны «прогнозируют продолжение траектории увеличения закупок» до 2025 г.

На фоне других важных пунктов соглашения, с точки зрения ИТ наибольший интерес представляют те компромиссы, к которым Китаю и США удалось прийти в области защиты интеллектуальной собственности. Кража её была одной из главных причин, побудивших команду Трампа к началу конфронтации с Китаем. Попытки предыдущих администраций заставить Китай бороться с промышленным шпионажем, не имели решающего успеха.

Соглашение создаёт предпосылки для обеспечения защиты конфиденциальной информации от «электронных вторжений» (взлома компьютерных систем). Этот тип правонарушений недостаточно охвачен китайским законодательством.
Китай также, по крайней мере, на бумаге, согласился прекратить практику, в соответствии с которой для ведения бизнеса в этой стране американским предприятиям приходилось делиться ценными технологиями и промышленными секретами с местными конкурентами.

Китай также пообещал не осуществлять и не поощрять скупку/финансирование  иностранных технологий в отраслях, на которые нацелены его перспективные промышленные планы. Это заковыристо сформулированное положение, как верят американские чиновники, поможет решить проблемы возникновения рыночных диспропорций в ходе реализации масштабных инициатив, таких как «Сделано в Китае 2025».

Для контроля за выполнением данного соглашения странами-участницами будут созданы Офисы двусторонней оценки и разрешения споров (Bilateral Evaluation and Dispute Resolution Offices). Предусмотрены и процедуры апелляции их постановлений вплоть до уровня офисов торгового представителя США и вице-премьера Китая. 

Одним из пунктов, по которым Китай не удалось склонить к уступкам, стало требование отказа от субсидирования приоритетных отраслей и национализации предприятий как способа достижения превосходства на ключевых рынках. США надеются продавить данный вопрос при поддержке WTO в следующем раунде переговоров. Именно от успешности этого следующего раунда зависит, отменит ли США основную массу пошлин на 360 млрд долл. китайского импорта.

Также в среду не было достигнуто консенсуса в отношении кибербезопасности и контроля китайских властей за тем, как компании хранят данные и используют облачные вычисления.

Ксеноботы — первый шаг к живой робототехнике

Технологии и прогресс сегодня неразрывно связаны с металлами и пластмассами — материалами, создающими угрозу окружающей среде и здоровью людей. В отличие от них, биологические ткани безопасны для экологии, но их главное достоинство — биоразлагаемость — является и главным недостатком: конструкции из таких материалов слишком недолговечны. Но состоящие из подобных тканей живые организмы могут существовать очень долго благодаря непрерывной регенерации живых клеток.

Попытку задействовать этот процесс путём создания биороботов из живых клеток предприняла команда инженеров и исследователей из университетов Вермонта (UVM) и Тафтса (штат Массачусетс). Однажды эти программируемые живые механизмы — ксеноботы — можно будет применять для самых разнообразных задач, от контроля радиоактивного заражения до очистки стенок человеческих артерий.

Ксеноботы — первый шаг к живой робототехнике

Потратив несколько месяцев машинного времени суперкомпьютерного кластера Deep Green в вычислительном центре UVM Vermont Advanced Computing Core, команда смоделировала тысячи вариантов новых форм жизни. После ста независимых прогонов эволюционного алгоритма из их числа были отобраны для тестирования проекты, оказавшиеся наиболее перспективными для решения поставленных учёными задач.

Затем группа из Тафтса во главе с руководителем университетского центра регенеративной биологии Майклом Левиным (Michael Levin) воплотила эти проекты в жизнь, in silico. Для этого они использовали стволовые клетки, извлечённые из эмбрионов африканских лягушек вида Xenopus laevis (отсюда и название «ксеноботы»).

С помощью микрохирургических пинцетов и электродов выращенные из них клетки кожи и сердечной мышцы разделяли под микроскопом и вновь соединяли уже в точном приближении к конструкциям, рекомендованным суперкомпьютером. Клетки кожи образовывали пассивную архитектуру, приводимую в действие беспорядочными сокращениями сердечных мышечных клеток для выполнения предусмотренного конструкцией ксенобота поступательного движения.

В испытаниях ксеноботы продемонстрировали стихийную самоорганизацию в коллективное движение по кругу, в процессе которого рассыпанные гранулы выталкивались в центр — имитация сбора микропластика в океане. Другой тип ксеноботов, с отверстием внутри для уменьшения сопротивления движению, в симуляциях применялись для переноса объектов — прообраз устройств для интеллектуальной доставки лекарственных препаратов по кровеносным сосудам.

На протяжении нескольких дней или недель, пока не закончатся эмбриональные запасы энергии, такие миллиметровые ксеноботы могут выполнять запрограммированные функции. После этого они гибнут и безвредно распадаются как обычные клетки лягушки, которыми они собственно с точки зрения генетики и являются.

Статья «Масштабируемая процедура конструирования реконфигурируемых организмов» о результатах этой исследовательской работы, выполненной при поддержке программы Lifelong Learning Machines агентства DARPA, была опубликована 13 января в бюллетене Национальной Академии Наук США.

Авторы верят, что создание ксеноботов — это первый небольшой шаг к взлому того, что они называют «морфогенетическим кодом», который позволит составить более глубокое представление об общей организации организмов, а также о том, как они вычисляют и хранят информацию о своей истории и окружающей среде.

Facebook в 2020-х: локальные сообщества, работа в AR/VR и рай для малого бизнеса

Начало года — это то время, когда о планах на следующие 12 месяцев задумывается каждый, в том числе и основатель крупнейшей соцсети Facebook, Марк Цукерберг. А если новый год ещё и «нулевой», то это хороший повод попытаться заглянуть в более отдаленное будущее.

В посте, опубликованном 9 января на его странице Facebook, Цукерберг очертил это будущее довольно расплывчатыми мазками, позволяющими, впрочем, составить некое общее представление о том, с какими вызовами Facebook может столкнуться в следующем десятилетии.

 локальные сообщества, работа в AR/VR и рай для малого бизнеса

В целом, Цукерберг выделяет пять областей, которые будут важны в следующем десятилетии: смена поколений, частные социальные платформы, децентрализация, AR и VR как следующая большая вычислительная платформа и новые формы управления в эпоху больших социальных сообществ.

Смена поколений. На протяжении следующей декады Facebook будет уделять больше внимания финансированию и платформенной поддержке молодых предпринимателей, учёных и лидеров — миллениалов и более молодых поколений, которые постепенно будут получать избирательные права и принимать растущее участие в формулировании политик.

Частные соцсети. Цукерберг заявил, что через 5 и больше лет окружающая нас цифровая социальная среда сильно изменится, выдвинув приватное общение на первый план и способствуя формированию небольших локальных сообществ. Хотя он не говорит прямо о месте Facebook в тренде локализации, данная соцсеть неизбежно окажется в центре происходящих изменений, учитывая её главенствующее положение на рынке.

Возможности децентрализации. «В течение следующего десятилетия мы надеемся создать инструменты коммерции и платежей, которые предоставят любому малому бизнесу легкий доступ к технологии, которую раньше использовали только крупные компании». Эта часть стратегии Facebook наиболее прозрачна, так как хорошо согласуется с продуктовыми планами компании, в том числе, с криптовалютным проектом Libra.

AR и VR. Смартфоны, выдвинувшиеся на роль основной вычислительной платформы в завершившемся десятилетии, по мнению Цукерберга сохранят доминирующие позиции, однако «революционные очки дополненной реальности переопределят наши взаимоотношения с этой технологией». По мере приближения к 2030 г., благодаря повсеместному распространению VR и AR сгладятся некоторые величайшие социальные проблемы современности, такие как географическое неравенство возможностей: люди смогут работать где угодно, независимо от того, где они живут.

Управление социальными средами. Правительства, считает глава Facebook, могли бы играть более значительную роль в создании правил, регламентирующих работу социальных платформ в отношении таких вопросов, как «выборы, вредоносный контент, приватность и переносимость данных». Отсутствие таких правил, впрочем, можно компенсировать, предоставляя цифровым сообществам инструменты самоуправления. Одним из таких инструментов должен стать фигурирующий в будущих планах Facebook независимый Надзорный совет (Oversight Board), который займётся рассмотрением пользовательских претензий к контенту.

Квантовый автобус отправился в путь

Многие формально связывают начало эры квантовых вычислений с достижением так называемого «квантового превосходства». В сентябре о взятии этого барьера сообщалось в статье компании Google. Экспериментальная 53-кубитная система якобы решила задачу, расчёт которой на классическом компьютере потребовал бы нереалистично долгого времени.

Чистоту поставленного Google эксперимента впоследствии оспорили квантовые эксперты IBM, и сама статья быстро исчезла с веб-сайта NASA, тем не менее, она не забыта.

На днях об этом эксперименте вспомнил Верн Браунелл (Vern Brownell), генеральный директор компании D-Wave, которая, как и IBM, борется с Google за лидерство в области квантовых вычислений. Он подошёл к критике с другой стороны, заявив, что само по себе «квантовое превосходство» это абстрактное понятие, оценить которое по достоинству способны только узкие специалисты.

Браунелл признал заслугу Google в решении интересной научной задачи, которая, однако, имеет нишевое значение. «Как я полагаю, она важна для истории квантовых вычислений, но мы отдаём приоритет практическим приложениям», — заявил он.

В качестве реального этапного достижения в индустрии квантовых вычислений, CEO D-Wave привёл пилотный проект Volkswagen, стартовавший в прошлом месяце в столице Португалии. Квантовый компьютер D-Wave, основанный на технологии квантового отжига, которая, по словам Браунелла, очень хороша в решении задач оптимизации, был применен для регулировки движения автобусов в Лиссабоне. «Это первый раз, когда квантовый компьютер используется с рабочей нагрузкой в реальном времени. Это может стать исторической вехой», — сказал Браунелл в интервью.

Квантовый автобус отправился в путь

Группа разработчиков из компании Volkswagen создала квантовый алгоритм оптимизации маршрута между остановками. Их программа рассчитывает самый быстрый путь для каждого автобуса и модифицирует его с учётом дорожной ситуации практически в масштабе реального времени.

Немецкий автопроизводитель сообщает, что, в отличие от обычных служб дорожной навигации, квантовый алгоритм должен позволить автобусам избегать транспортных пробок на ранней стадии их формирования. Volkswagen надеется получить дополнительный позитивный эффект от внедрения квантовых технологий: оптимально управляемые автобусы не будут становиться причиной заторов на улицах, что улучшит общую дорожную ситуацию в городе.

В Лиссабоне квантовая оптимизация была применена на четырёх автобусных маршрутах, связывающих 26 остановок. Директор Volkswagen по информатике, Мартин Хоффманн (Martin Hofmann), заявил, что планируется продолжить разработку: идея заключается в том, чтобы автобусные операторы могли использовать квантовые системы для добавления временных звеньев к своим плановым маршрутам, например, в связи с крупными мероприятиями, проводимыми в городе.

Вычислительная трудность нахождения ответа на подобные вопросы растёт экспоненциально с увеличением количества учитываемых факторов, соответственно, оптимизация движения многих автобусов, по словам Браунелла, находится за пределами возможностей классических компьютеров.

В силу специфики квантовых технологий компьютеры D-Wave необязательно предлагают лучшее возможное решение задачи, но их ответ достаточно хорош и, что особенно важно, поступает достаточно быстро. Напротив, классические машины рассчитывают идеальный вариант, но слишком поздно, чтобы его можно было использовать на практике.

Все квантовые алгоритмы по своей природе являются вероятностными, и это сближает их с технологиями искусственного интеллекта. В обеих этих областях компьютеры рассчитывают не ответы, а вероятностную модель, таким образом, наблюдаемый прогресс в области ИИ готовит почву для квантовых вычислений, изменяя образ мышления разработчиков.

«Это может казаться странным, но реальность такова, что мир функционирует не по классическим, а по квантово-механическим законам, — отметил Браунелл. — Мы живём в мире квантовой механики, и приобщение (технологий) к его природе приведет к всевозможным улучшениям и к росту эффективности».

795 бит — новый рекорд взлома ключей шифрования

Высокая вычислительная сложность факторизации, а также дискретного логарифмирования позволила сделать эти две задачи фундаментом практически всей современной криптографии с публичным ключом, используемой для шифрования ответственных данных и цифровых подписей.

В 1977 году один из авторов криптографического стандарта RSA, Рон Райвест (Ron Rivest), подсчитал, что для вычисления полупростого числа (натурального произведения двух простых чисел) из 125 цифр потребуется 40 квадриллионов лет, если использовать лучший алгоритм и самые быстрые компьютеры того времени. Уже этот результат делал дебютировавший тогда RSA практически неприступным для взломщиков. Тем не менее, в своей оригинальной статье Райвест с коллегами рекомендовал использовать 200-значные (663-битные) простые числа для обеспечения гарантированного запаса прочности против любых будущих разработок.

Однако совершенствование компьютеров и программных алгоритмов привело к тому, что такое невозможное будущее наступило уже в 2005 году. И этот прогресс продолжается, вынуждая индустрию внедрять всё более длинные ключи шифрования.

В 2010 г. рекорд факторизации составлял 768 бит или 232 десятичных цифры. А недавно международная команда компьютерных инженеров сообщила об очередном рекордном достижении: её участники факторизовали 795-значный ключ и вычислили дискретный логарифм числа такой же длины, израсходовав на всё это «всего» 35 млн часов компьютерного времени.

До сих пор было принято считать, что проблема дискретного логарифма примерно на порядок сложнее разложения на простые множители. Поэтому логарифм для 768-значного числа был вычислен на 6 лет позже факторизации числа такого же размера. Новая работа показала, что в действительности эти две проблемы различаются по вычислительной трудности гораздо меньше — примерно в три раза.

В нынешних коммерческих системах асимметричного шифрования рекомендуемая длина RSA-ключа превышает 1024 бит. Таким образом, прямой угрозы новый рекорд не представляет, но это сигнал, заставляющий отделы безопасности задуматься о ближайших перспективах, ведь текст, зашифрованный с помощью неуязвимого в 1977 году алгоритма RSA-129 сейчас взламывается на публичном облачном сервисе менее, чем за 30 долларов и за одни сутки.

Народную оппозицию Amazon возглавит Athena

Нарастающее недовольство деятельностью компании Amazon на этой неделе вылилось в создание организации под названием Athena. Она должна стать остриём антиамазоновского сопротивления и способствовать прекращению удушения разросшимся онлайновым ритейлером экономики и экологии, ущемления им базовых прав человека.

Независимо, но практически одновременно с образованием коалиции, некоммерческая исследовательская группа Economic Roundtable, занимающаяся экономическими и социальными проблемами Южной Калифорнии, выпустила отчёт, в котором авторы попытались понять, во что обходится размещение складов Amazon местному сообществу.

Название публикации — «Too Big to Govern» (слишком большая, чтобы ею управлять) перекликается с вопросом, занимавшим в прошлом году вашингтонских регуляторов, генеральных прокуроров штатов и, по крайней мере, нескольких политиков: где та граница, достигнув которую, технологические гиганты, в том числе Amazon, Apple, Facebook и Google, становятся чересчур большими, превращаясь в угрозу для общества, восхищающегося ими.

Том Перриелло (Tom Perriello) из Open Society Foundations подчёркивает, что фактически, такие компании действуют на уровне, ранее доступном только государству, но без присущих государству механизмов направления и ограничения деятельности.

Из технокомпаний Amazon выделяется не одним размером, а только за прошлое лето она приняла на работу 97 тысяч человек, что почти равняется всему штату Google. Онлайновый конгломерат наиболее успешно пускает корни во все сегменты окружающей жизни. Он уже охватывает свежие пищевые продукты, устройства, которые соединяют квартиру с Интернетом, домашнее видеонаблюдение, профессиональные, например, слесарные услуги, здравоохранение, государственные закупки, интернет-инфраструктуру и голливудский шоу-бизнес.

По прогнозам, продажи Amazon в этом году составят 238 млрд долл. В компании работают 750 тыс. человек, а её генеральный директор, Джефф Безос (Jeff Bezos), является одним из самых богатых людей на планете.

Организуемая при поддержке (через Open Society) Джорджа Сороса коалиция, трёхлетний бюджет которой, по данным New York Times, составит 15 млн долл., выглядит в сравнении с Amazon сущим карликом. Она включает в себя три десятка активистских организаций, такие как Awood Center, Fight for the Future, Jobs with Justice, Warehouse Workers for Justice, Showing Up for Racial Justice и мультирасовое движение за улучшение условий труда в розничном секторе — United for Respect.

Появлению Athena предшествовала волна новостей и отчётов расследований, отмечавших опасные условия труда служащих Amazon и подрядчиков, ответственных за быструю и удобную доставку заказов покупателям, а также публичные акции низкооплачиваемых служащих Amazon против своего работодателя.

В прошлый понедельник персонал нью-йоркского склада Amazon на Статен-Айленд направил начальству перечень претензий, под которым оставили подписи 600 работников. Среди прочего они требуют увеличения длительности перерывов — сейчас отведённых на это 15 минут зачастую хватает только, чтобы дойти до комнаты отдыха и вернуться обратно. Также служащие, тратящие иногда по 2-3 часа на проезд от дома до работы, настаивают на бесплатном транспорте.

Сотрудники центра доставки Amazon в аэропорту Миннеаполиса этой осенью провели уже вторую забастовку, настаивая на повышении оплаты ночных смен и введении ограничений на вес посылок. Свою первую забастовку провели и офисные работники компании, по примеру коллег из Google и Microsoft протестовавшие против воздействия их работодателя на окружающую среду. К акции присоединилось более 1,5 тысяч «белых воротничков» Amazon.

Оппозиции, озабоченной перспективой перемещения резидентов, плохо контролируемыми условиями труда персонала и неоправданным режимом благоприятствования со стороны муниципальных властей, удалось заставить Amazon отказаться от планов размещения своей второй штаб-квартиры в одной из выбранных компанией локаций — Лонг-Айленд-Сити (Куинс, Нью-Йорк). В прошлом месяце избиратели провалили попытку Amazon сформировать благоприятный для себя состав городского совета Сиэтла, где базируется её головной офис.

Теперь многие из организаций, причастных к этим результативным акциям, объединят усилия под эгидой Athena. Название коалиции намерено выбрано нейтральным, так как она не планирует бойкотировать Amazon. Свою задачу она видит в «раскачивании» активности служащих и клиентов Amazon в географических, демографических и социальных масштабах, которые были недоступны отдельных входящим в неё группам.

«Мы берем то, что имеем — голоса членов наших различных организаций, наши коллективные знания и опыт и глубокое понимание экономики техногигантов, а также тот опыт, который получили, заставив эту компанию изменить своё поведение — и стараемся построить более гуманную экономику», — говорит Лорен Джейкобс (Lauren Jacobs) из организации-участника Athena, Partnership for Working Families.

«Мы учимся на том, что заставляет Amazon отступать, и стремимся воспроизвести это, насколько это возможно, с как можно большим количеством людей», вторит ей Дания Раджендра (Dania Rajendra), директор Athena.

Начавшаяся консолидация сопротивления, участившиеся акции и первые успехи — всё это свидетельствует, что длившаяся два десятка лет эпоха безбедного и почти бесконтрольного существования для Amazon подходит к концу.

Виражи многооблачной политики Salesforce

Демонстрируя всем свою готовность разыгрывать многооблачную карту, Salesforce создаёт основу для широкого инфраструктурного партнёрства, которое к тому же даст компании основания претендовать на благоприятные условия в ходе обсуждении контрактов.

В ноябре 2017 г. на Dreamforce было анонсировано партнёрство Salesforce с Google Cloud в области интеграции её CRM-продуктов с G Suite и Google Analytics. Тогда Salesforce назвала Google Cloud предпочтительным облачным провайдером объявила, что намерена использовала эту платформу для глобального расширения своей деятельности.

Виражи многооблачной политики Salesforce

Но всего годом раньше, в мае 2016 г., буквально в тех же выражениях Salesforce уверяла в своей приверженности к AWS, избрав её в качестве предпочтительного провайдера публичной облачной инфраструктуры для международного продвижения всех своих ключевых сервисов — Sales Cloud, Service Cloud, App Cloud, Community Cloud, Analytics Cloud и др.

Теперь же Salesforce сообщила о том, что её Marketing Cloud будет работать на Azure, а Sales Cloud и Service Cloud планируется плотно интегрировать с решениям для групповой работы Microsoft Teams. Это вдвойне интересный шаг, учитывая яростную конкуренцию двух компаний на рынке CRM. Вдобавок, речь идёт о равноправной интеграции и использовании записей Salesforce CRM в Microsoft Teams, аналогично тому, как Salesforce взаимодействует со Slack.

Известный аналитик Рей Ванг (Ray Wang) из Constellation Research, объясняет подобное «непостоянство» Salesforce необходимостью компании следовать требованиям своих клиентов. «Salesforce знает, что многие клиенты в настоящее время работают в Teams, и многие переходят на технологии Microsoft. Главное же это то, что клиенты хотят такой интеграции, они требуют ее», — сказал он.

Смещение предпочтений Salesforce и её клиентов в сторону Microsoft продиктовано даже не эпической победой последней над Amazon в борьбе за 10-миллиардный оборонный контракт JEDI, но, в первую очередь, изменением расстановки сил в облачной индустрии.

Скорость роста бизнеса Azure в квартале, завершившемся 30 сентября, составила 63%, что почти вдвое превосходит соответсвующий показатель AWS — 35%. Кроме того, доход от коммерческого облака Microsoft за этот период оказался на 29% больше, чем выручка AWS — 11,6 (треть от всего дохода Microsoft) против 9 млрд долл.

Платформа Microsoft Azure стала неоспоримым фаворитом корпораций, перемещающих свои гигантские и ответственные нагрузки SAP в публичную облачную инфраструктуру, внеся существенный вклад в 37-процентный рост облачных прибылей SAP, достигших в III фискальном квартале 2 млрд долл. Ну и настоящим шоком стал альянс с Oracle, которая с помощью Microsoft сделала свой первый шаг в многооблачную реальность.

Сближение с Microsoft отнюдь не отменяет расширения сотрудничества Salesforce с Google Cloud и другими, ведь большинство её клиентов работают или хотят работать в многооблачном режиме с инструментами и службами различных провайдеров. Поэтому, в июле, Salesforce заключила сделку с Alibaba Cloud с целью расширения своих услуг на китайский рынок, а купленная Salesforce в прошлом году за 6,5 млрд долл. фирма Mulesoft недавно объявила об интеграции с веб-сервисом GCP BigQuery, используемым крупными корпорациями для интерактивного анализа больших данных в Google Storage.

Но каковы же в этом свете перспективы сотрудничества с AWS, контракт Salrsforce с которой как с «предпочтительным облачным провайдером» заканчивается в 2020 году? «Там (на облачном рынке) будет всего три огромных инфраструктурных игрока, и Salesforce знает, что должна поддерживать хорошие отношения с каждым из них», — комментирует это уже упомянутый Рей Ванг.

Боб Эванс (Bob Evans) с ресурса Cloud Wars считает, что Марк Бенёфф (Marc Benioff) имеет в рукаве хороший козырь, способный примирить Amazon с утратой предпочтительного статуса, и в самое ближайшее время, возможно ещё до финансовой пресс-конференции, намеченной на 3 декабря, может объявить о миграции баз данных Salesforce с Oracle на AWS. В

В любом случае, переговоры о продлении контракта с AWS на будут простыми, поскольку, как подчеркнул Ларри Динан (Larry Dignan) из ZDnet, Amazon не слишком заинтересована в каналах и продуктах Salesforce, которая, в свою очередь, не имеет на неё таких интеграционных рычагов воздействия, как на Microsoft или на Google.

Анализ облачной производительности показал, что ... всё сложно

Для того, чтобы получать максимальную отдачу от использования облачного сервиса, при его выборе следует принимать во внимание не только расценки и расположение провайдера, но также учитывать особенности организации его сетевой архитектуры, непосредственно влияющие на производительность оказываемых услуг.

Эта рекомендация компании ThousandEyes, стала результатом её второго ежегодного тестирования сетевой производительности глобальных провайдеров публичных облачных сервисов — Cloud Performance Benchmark.

Анализ облачной производительности показал, что ... всё сложно

Исследование ThousandEyes охватило пять главных облачных провайдеров: Alibaba Cloud, Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud и Microsoft Azure. В анализе использовались более 320 млн точек данных из 98 глобальных локаций, отслеживавшихся в течение 30 дней. Наряду с измерением собственно скорости трафика между зонами доступности с использованием многочисленных Интернет-провайдеров, компания также регистрировала задержку, неустойчивость передачи и потерю данных.

«Решая, какой поставщик облачных услуг наилучшим образом соответствует их потребностям, предприятия никогда не учитывали данные о производительности, главным образом потому, что они [эти данные] никогда не были доступны или, в лучшем случае, были малоинформативны ... Понимание производительности облачных вычислений имеет важное значение для планирования и проведения текущих измерений, только так вы можете быть уверены, что предоставляете клиентам и сотрудникам максимально возможную производительность», — утверждает автор исследования и директор по маркетингу продуктов в ThousandEyes, Аршана Кесаван (Archana Kesavan).

Как и можно было ожидать, анализ не выявил безусловно лучшего облачного провайдера. Каждый из них имеет сильные и слабые стороны, варьирующиеся от региона к региону.

Вот некоторые общие сведения о каждом из пяти облачных провайдеров, предоставленные исследованием ThousandEye.

Анализ облачной производительности показал, что ... всё сложно

Занимающая лидирующие позиции в мире облачная платформа AWS, как оказалось, обеспечивает худшую предсказуемость сетевой производительности, чем Microsoft и Google. Этот неожиданный результат ThousandEyes объясняет тем, что при доставке сетевого трафика Amazon больше полагается на Интернет, чем на собственную инфраструктуру. Но даже платный сервис AWS Global Accelerator, перенаправляющий клиентский трафик через частную сетевую магистраль AWS, не гарантирует улучшения скорости. ThousandEyes выявила несколько случаев, в которых Интернет работал быстрее и более надёжно, чем Global Accelerator, или разница была незначительной. AWS в целом демонстрирует низкую задержку, а предсказуемость сетевой производительности этого провайдера от года к году улучшается, прежде всего в Азии (42%).

Azure агрессивно использует собственные магистрали для пересылки пользовательского трафика в регионы облачного хостинга, чем гарантирует стабильную производительность. В среднем её предсказуемость выросла с прошлого года на 29,2%. В Австралии (Сидней) улучшение по сравнению с прошлым годом достигает 50%, но в Индии предсказуемость производительности ухудшилась на 31%.

Google Cloud также предоставляет пользователям в большинстве регионов преимущества собственных магистралей, но с рядом существенных исключений. Например, трафик из Европы и Африки идёт в Индию окружными путями в 2,5-3 раза дольше, чем у других провайдеров. При этом, даже несмотря на плохую видимость для пользователей его внутренней сети, у Google Cloud отмечено самое высокое общее улучшение предсказуемости производительности с прошлого года — 36,4%.

Alibaba Cloud представляет сопоставимую производительность с другими провайдерами. Как и AWS, Alibaba Cloud основную часть пользовательского трафика проводит через Интернет. Не ограничиваясь этим (в отличие от остальных провайдеров), Alibaba выводит в Интернет из собственной облачной инфраструктуры даже межрегиональный трафик.

IBM Cloud использует гибридный подход: иногда использует частную магистраль, а иногда — Интернет. Это, судя по всему, зависит от регионов, в которые получают доступ пользователи. IBM Cloud как и Alibaba Cloud не участвовала в первом тестировании ThousandEyes Cloud Performance Benchmark, поэтому новое исследование не смогло проследить динамику изменения их показателей. Тем не менее, по сетевой производительности и её предсказуемости IBM также не уступает «Большой Тройке».

В первом приближении, можно сказать, что все облачные сервисы обеспечивают сопоставимую производительность в Северной Америке, а наибольшие различия между ними наблюдаются в Азии и Латинской Америке. Поэтому, для выбора оптимального облачного провайдера, нужно руководствоваться подробными данными, полученными ThousandEye для каждого конкретного региона. Многое зависит и от выбора локальных Интернет-провайдеров. Любой из них может стать самым медленным звеном сети, которое ограничит общее быстродействие, даже если вы платите за AWS Global Accelerator.

Сообщество разработчиков Github превысило 40 млн человек

В очередном ежегодном отчёте Github, The State of Octoverse, этот принадлежащий Microsoft крупнейший веб-сервис хостинга ИТ-проектов, сообщил, что количество его пользователей за последние 12 месяцев выросло более чем на 10 млн и превысило 40 млн. Также за этот период было создано 44 млн репозиториев и подано 87 млн запросов на применение изменений (pull request). Свой первый вклад в проекты Open Source внесли 1,3 млн человек, а своё первое хранилище в 2019 году создали на 44% больше разработчиков, чем в 2018 году.

Данные, приведенные в этом отчёте, можно рассматривать как неплохую иллюстрацию тенденций сообщества разработчиков ПО с открытым кодом.

Сообщество разработчиков Github превысило 40 млн человек

На GitHub зарегистрированы почти три миллиона различных организаций — компании, неприбыльные организации, проекты Open Source и пр. География учётных записей GitHub Enterprise Cloud насчитывает свыше 70 стран. Индикатором того, как глубоко зависит закрытое ПО от кодовой базы открытого сообщества, может стать тот факт, что за прошедший год 35 фирм из списка Global Fortune 50 внесли вклад в открытые проекты Github.

В среднем, каждое публичное или частное хранилище зависит от более 200 пакетов, то есть программные проекты в GitHub становятся все более взаимосвязанными. Около 3,6 млн репозиториев в этом году зависят от каждого из 50 самых популярных проектов Github, таких как rails/rails, facebook/jest и axios/axios.

Наиболее востребованным пакетом с открытым кодом стал lodash/lodash, за ним следуют expressjs/express и visionmedia/debug.

Сообщество разработчиков Github превысило 40 млн человек

(по клику картинку можно увеличить)

Четвёрку самых популярных проектов, количество вкладчиков в каждый из которых превосходит 10 тысяч, возглавляют microsoft/vscode и ansible/ansible, входящие в этот рейтинг в 2016 г. Третье и четвёртое места в 2019 г. заняли новички, flutter/flutter и firstcontributions/first-contributions.

Репозитории с такими метками, как «глубокое обучение», «обработка естественного языка» и «машинное обучение», приобретают все большую популярность и сообщества, ориентированные на аналитику данных становятся всё более многочисленными. С учётом вкладчиков в его зависимости число участников проекта TensorFlow выросло с 2238 до глобального сообщества, насчитывающего 25 166 человек. Свыше половины популярных публичных хранилищ такой тематики построены на numpy, и многие из них зависят от scipy, scikit-learn и TensorFlow. Также отмечается рост поступлений по тематике науки о данных, не связанных напрямую с кодом, включая научные статьи.

Также, согласно статистике, обнародованной Github:

Python превзошёл Java по числу размещённых репозиториев и стал вторым по популярности языком на этом ресурсе. Лидером по-прежнему остаётся JavaScript. Dart и Rust возглавляют список самых быстрорастущих языков по количеству вкладчиков в хранилища.

На волне интереса к машинному обучению база пользователей Github превысила 40 млн

Использование оболочки для интерактивных вычислений Jupyter Notebooks увеличивается более, чем вдвое каждый год на протяжении последних трёх лет (по количеству репозиториев, где Jupiter является основным языком).

Свыше 1,7 млн человек учатся разработке ПО на Github (рост на 55% с прошлого года), в том числе 761 тыс. использует для этого GitHub Student Developer Pack.

С 2014 г. количество вкладчиков в Gihub за пределами США стало преобладающим, и сегодня их доля составляет почти 80%. По годовому росту Азия превосходит Европу и Северную Америку.

С января 2019 г., когда на ресурсе были введены бесплатные частные репозитории, 80% из них были созданы за пределам США, в том числе 34% в Азии, в основном разработчиками из Индии, Китая и Японии.

 
 
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT