`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Американские партнёры Huawei ждут обещанных экспортных лицензий

Согласно сведениям от трёх источников в Министерстве торговли США, от американских предприятий, сотрудничающих с Huawei Technologies, поступило более 130 заявок на лицензии, дающие им право продавать свои товары этой китайской компании. Таково неофициальное состояние дел спустя почти два месяца после того, как президент Дональд Трамп пообещал послабление торговых санкций в отношении второго по объёмам продаж глобального производителя смартфонов.
 
В прошлом месяце, министр торговли США Уилбур Росс (Wilbur Ross) заявил о получении всего около 50 таких заявок. Таким образом, надежды на нормализацию торгового сотрудничества с Китаем в среде американских промышленников растут, несмотря на то, что сохраняющие анонимность информанты Reuters утверждают, что администрация Трампа пока не утвердила ни одной такой лицензии.
 
Неопределённость ситуации усиливается противоречивыми заявлениями Трампа.
 
«Никто в исполнительной власти не понимает, чего хочет (Трамп), и все они боятся принять решение, не зная об этом», – утверждает Уильям Рейнш (William Reinsch), бывший чиновник Министерства торговли.
 
На прошлой неделе Трамп пообещал поднять тарифы на китайский импорт стоимостью 550 миллиардов долларов, спустя несколько часов после того, как Китай ввел новые пошлины на товары из США на 75 млрд долл. Затем, на встрече лидеров G7 на выходных, президент смягчил свою позицию в отношении Китая, сказав, что, по его мнению, две крупнейшие экономики мира смогут договориться о прекращении торговой войны, ведущейся по принципу «око за око», которая будоражит рынки и тормозит рост.
 
Huawei, крупнейший поставщик телекоммуникационного оборудования, был помещён в чёрный список (entity list)  угроз для Национальной безопасности США в мае этого года, когда были прерваны двусторонние торговые переговоры между США и Китаем. Компаниям из этого списка разрешают покупать американские товары только если соответствующие поставщики обладают разрешительной лицензией. Для получения подобной лицензии нужно пройти строгую экспертизу, и изначально американские участники цепочки поставок Huawei считали шансы успешного рассмотрения их заявок ничтожными.
 
Но в конце июня, в стремлении вернуть Китай за стол переговоров, Трамп пообещал президенту Си Цзиньпину частично разрешить компаниям США торговлю с Huawei. Это известие с энтузиазмом было встречено чипмейкерами и софтверными предприятиями в США, получившими в прошлом году от своего крупнейшего китайского заказчика порядка 11 млрд долл.
 
Ободрённые словами Трампа чиновники призвали американские компании подавать заявки на получение лицензий. Они обещали разрешить экспорт в Китая не критичных для безопасности товаров, запрет поставок которых легко компенсируется иностранными конкурентами. Росс и Трамп в июле также обещали оперативное реагирование на каждую заявку, но вот с этим у них явно не сложилось.
 
Один из осведомленных источников Reuters в Минторговли утверждает, что рассмотрение заявок действительно ведётся, однако процесс этот сильно тормозит необходимость постоянных межведомственных консультаций. Трое других говорят, что ни на какие решительные подвижки рассчитывать не стоит, пока бюрократы не получат «зелёный свисток» от Росса и из Белого Дома.
 
Единственным реальным послаблением для Huawei пока стало продление в августе временной общей лицензии. Это дает компаниям США небольшое, но вполне законное основание для выполнения ремонта и обслуживания существующих телефонов и сетей Huawei.
 
Ну и чтобы не заканчивать в миноре. Эксперт-китаевед из Института американского предпринимательства (AEI), Дерек Сциссорс (Derek Scissors), полагает, что мы находимся в преддверии прорыва в двусторонних торговых переговорах, за которым уже в сентябре последует лавина одобрений лицензий на поставки для Huawei. Ближайшие такие переговоры запланированы в Вашингтоне на сентябрь, но точная их дата пока не публиковалась.

Топологический сверхпроводник — для безошибочных квантовых вычислений

Группа американских физиков в статье, опубликованной на сервере arXiv, сообщила об открытии нового состояния материи, с которым учёные связывают надежды на создание квантовых компьютеров, устойчивых к воздействиям окружающей среды.

«Нашим исследованиям удалось выявить экспериментальные доказательства нового состояния вещества — топологической сверхпроводимости, — заявил Джавад Шабани (Javad Shabani), доцент кафедры физики в Нью-Йоркском университете. — Этим новым топологическим состоянием можно манипулировать способами, которые могут ускорить квантовые вычислениях и увеличить вместимость информационных накопителей».

Топологический сверхпроводник — для безошибочных квантовых вычислений

В работе, которая была частично профинансирована грантом агентства DARPA Минобороны США в рамках программы Топологические возбуждение в электронике (TEE), Шабани и его коллеги — Игорь Жутич (Igor Zutic) из Университета штата Нью-Йорк в Буффало и Алекс Матос-Абьяг (Alex Matos-Abiague) из Университета Уэйна (штат Мичиган) — анализировали переход традиционного квантового состояния в топологическое и измеряли энергетический барьер между ними. В дополнение к этому, они выполнили прямые измерения сигнатурных характеристик топологического перехода с помощью двух планарных переходов Джозефсона, образующих сверхпроводящий квантовый интерферометр (SQUID).

Здесь они сфокусировали исследование на квазичастицах Майораны, которые являются своими собственными античастицами — с той же массой, но с противоположным зарядом. Эти частицы, также называемые фермионами Майораны, считаются высокоперспективными для квантовых вычислений из-за их способности хранить квантовую информацию в специальном пространстве вычислений, защищённом от шума окружающей среды.

Однако, так как естественного материала, в котором существовали бы связанные состояния Майораны не существует, исследователи попытались создать платформы, или новые формы материи, на которых можно было бы выполнять такие вычисления. В своей новой работе они опирались на теорию, предсказывавшую появление связанных состояний Майораны в фазе перехода между областями с тривиальной и топологической сверхпроводимостью.

«Новое открытие топологической сверхпроводимости в двумерной платформе создаёт предпосылки для построения масштабируемых топологических кубитов, чтобы не только хранить квантовую информацию, но и манипулировать квантовыми состояниями без ошибок», — отметил Шабани.

Наделла рассказал, кто больше всех зарабатывает в облачном бизнесе

Кто является безусловным лидером глобального облачного рынка? Если вы ответили — «какие могут быть сомнения, конечно же Amazon!» — то я вас поздравляю: ваше мнение разделяют многие аналитики и большинство медийных источников в Сети. По не совсем понятным причинам все они продолжают считать, что AWS доминирует в этой индустрии, и игнорируют простой и доступный факт, что по доходам от коммерческого облачного бизнеса Microsoft превосходит AWS, на 25-30%!

Облачный доход Microsoft примерно в четыре раза больше, чем у Google Cloud, генерирующей 8 млрд долл. в год, и почти в три раза больше, чем у Salesforce.com с 13,3 млрд долл. в последнем финансовом году. Amazon Web Services с солидным отрывом выделяется из этой массы догоняющих: за 12-месячный период, закончившийся 31 марта 2019 г., она получила 27,9 млрд долл. При всём этом, AWS отнюдь не дышит в затылок Microsoft, и разрыв величиной почти во всю рыночную долю Google нужно очень исхитриться не заметить.

Боб Эванс (Bob Evans) с ресурса Cloud Wars полагает, что ошибка проистекает из широко распространившегося заблуждения, будто между «облаком» и инфраструктурой публичных облаков можно поставить знак равенства. Из-за этого выводы аналитиков, сделанные для рынка IaaS ошибочно обобщают на весь корпоративный облачный сектор. «Это, конечно, нонсенс, — восклицает Эванс. — Это полностью исключает SaaS и PaaS. Если исходить из таких соображений, Salesforce — не является облачной компанией, так же как и Workday».

Возможно, что это недоработка руководства Microsoft, считавшего, что цифры говорят сами за себя. Тогда, делу борьбы с заблуждениями несомненно поможет тот факт, что CEO редмондской компании Сатья Наделла, наконец, впервые публично озвучил — кто сегодня в облаке главный.

Наделла рассказал, кто больше всех зарабатывает в облачном бизнесе

Это произошло менее месяца назад, третьим предложением в речи, которой Наделла открывал 18 июля конференцию по представлению финансовых итогов IV-го фискального квартала Microsoft, было: «Наш коммерческий облачный бизнес является крупнейшим в мире, его доход за год превысил 38 млрд. долл.».

Ранее, на таких финансовых конференциях, Наделла лишь расхваливал самый широкий в отрасли ассортимент облачных сервисов и сопутствующих предложений Microsoft. Но аналогичные громкие заявления делала AWS, правда, с меньшими на то основаниями.

Среди пяти крупнейших коммерческих облачных провайдеров — Amazon, Microsoft, Alibaba, Google и IBM — Microsoft вместе с Google являются единственными, кто предоставляет полный спектр облачных услуг, от инфраструктуры (IaaS) до приложений или программного обеспечения (SaaS).

Для пояснения, Microsoft включает в доходы от коммерческого облачного бизнеса поступления от платформы публичных облачных вычислений Azure, состоящей из серверов, хранилищ, баз данных, сетей и ПО (SQL Server, Windows Server, Visual Studio, System Center, GitHub... ), а также от Office 365 (Office, Exchange, SharePoint, Skype для бизнеса и Microsoft Teams), LinkedIn и Dynamics 365 (облачные CRM и ERP).

Когда Наделла взял в свои руки бразды правления Microsoft чуть более пяти лет назад, в феврале 2014 г., первое, что он сделал, — это изменил стратегические приоритеты с «устройств и услуг» своего предшественника Стива Баллмера на мобильные и облачные решения. Помимо этого, трансформации компании из клиент-серверной в облачного лидера, способствовало назначение гендиректором именно Наделлы, возглавлявшего тогда облачный бизнес Microsoft.

«Мы строим из Azure мировой компьютер, удовлетворяющий потребности реальных клиентов в операционной независимости и регуляторные предписания, — сказал CEO Microsoft на июльской пресс-конференции. — У нас есть датацентры в 54 регионах, это больше, чем у любого другого поставщика облачных услуг, и мы были первыми на Ближнем Востоке и в Африке».

Сегодня облачные вычисления, несомненно, являются основой стратегии роста Microsoft. — На момент написания статьи, этот софтверный гигант — самая ценная компания в мире, с рыночной капитализацией, которая превышает 1 трлн. долл. Нынешняя Microsoft отходит от привязки к Windows, вместо того опираясь в своём прогрессе на собственные или приобретённые Open Source и облачные технологии, такие как Linux, Cloudyn, Cycle Computing, Bonsai, GitHub, BlueTalon, PromoteIQ.

А что-же Amazon? На глобальном рынке IaaS её преобладание не вызывает сомнений. Рыночная доля по доходам от инфраструктурных сервисов у бывшего книготорговца хотя и уменьшилась за прошлый год на 1,6%, составляет 47,8% (Gartner). Microsoft тут является ближайшим соперником AWS, хотя, с учётом втрое меньшей рыночной доли (15,5%), вернее было бы сказать «наименее далёким». Если прибавить к этому впечатляющие достижения Amazon в продвижении облачных инноваций, динамике роста, вовлечении клиентов, масштабировании и брендинге, ошибку журналистов и аналитиков можно понять и простить. Amazon, как никто, достойна занять первое место в облачном бизнесе... в какой-нибудь альтернативной реальности, где нет и никогда не было Microsoft.

Intel за три года ускорит создание визуального контента в 1000 раз

Intel за три года ускорит создание визуального контента в 1000 раз

В наши дни редко какой-нибудь из технологических лидеров рискует взять на себя обещание улучшить что-либо в 1000 раз, но именно это сделал главный архитектор и старший вице-президент Intel, Раджа Кодури (Raja Koduri), в выступлении на организованном его компанией в рамках SIGGRAPH 2019 мероприятии CREATE.

«Мы тверды в намерении двигать индустрию к миру, где экза-вычисления будут доступны каждому, позволяя создателям контента раздвигать границы визуально насыщенных и захватывающих историй… Чтобы обеспечить это, я поставил перед своими командами задачу добиться повышения производительности в 1000 раз в ближайшие годы», – заявил Кодури, возглавляющий группу архитектуры, программ и графики Intel.

Джим Джефферс (Jim Jeffers), старший директор Intel по продвинутому рендерингу и визуализации уподобляет проблемы, с которыми сталкиваются создатели контента в этой новой эпохе экза-вычислений, тем вызовам, которые возникали на заре эр суперкомпьютеров и высокопроизводительных вычислений (HPC).

Современные серверные фермы перемалывают гигантские объёмы данных для кинопроизводителей, игровых и анимационных студий, выполняя любые задачи – от трассировки лучей в масштабах всей сцены, до создания анимаций со сверхдостоверными спецэффектами. В числе ключевых технологий Intel для масштабного ускорения этих рабочих нагрузок Джефферс назвал Intel Optane DC, обеспечивающую значительное увеличение пропускной способности и ёмкости в качестве нового уровня памяти в высокопроизводительных вычислительных приложениях.

Другой важнейшей частью общего решения Джефферс считает программные решения, включая недавно представленный Intel проект oneAPI. Всего же стратегия ускорения зиждется на шести «столпах»: Процесс, Архитектура, Память, Межсоединения, Безопасность и Программы.

С oneAPI Intel намеревается предоставить в распоряжение разработчиков библиотеки и инструментарий, которые позволят им применять общий набор программ и методов независимо от используемой аппаратной платформы. При этом API выбирает из доступных компьютерных ресурсов наиболее оптимальные с точки зрения производительности и расхода энергии.

От группы Джефферса также были представлены новые компоненты Intel OneAPI Rendering Toolkit для пакета oneAPI. Среди них на этой неделе станут доступны: Intel Embree v3.6 – новейшая версия высокопроизводительных ядер трассировки лучей; Intel Open Image Denoise v1.0, использующий методы глубокого обучения для сокращения времени рендеринга высококачественных изображений приложениями трассировки лучей.

В четвёртом квартале 2019 года появятся: Intel OSPRay v2.0, открытый и масштабируемым движок трассировки лучей, который будет включать в себя Intel Open Image Denoise v1.0; и Intel Open Volume Kernel Library для объёмного рендеринга.

Крупные партнеры, такие как Pixar, HP, Discovery, Disney и Maxon, также высказались в поддержку инициативы Intel и рассказали, как они используют её новые технологии в множестве сложных вычислительных задач по созданию контента.

Фернандо Корбато – человек, придумавший компьютерный пароль

В возрасте 93 лет скончался Фернандо Корбато (Fernando Corbató), почётный профессор на пенсии Массачусетского технологического института (MIT). Печальное событие это дало повод напомнить об одном из многих, кто внёс свой важный вклад в создание суммы технологий сегодняшней информатики, – тех, кто всё больше из наших современников переходит в разряд великих учёных и инженеров прошлого.

Доктор Корбато, известный среди сослуживцев как Корби, пришёл в MIT аспирантом осенью 1950 г., а в 60-х годах возглавил там проект «совместимой системы разделения времени» (Compatible Time-Sharing System, C.T.S.S.). Она впервые позволила нескольким пользователям получать одновременный доступ к общему компьютеру по телефонным линиям.

Фернандо Корбато – человек, придумавший компьютерный пароль

В то время обычной была практика, когда задания подавались для исполнения в компьютер большими пакетами, и пользователям нужно было приходить за результатами на следующий день. В телевизионном интервью 1963 года, через год после первой демонстрации C.T.S.S., доктор Корбато сказал, что такая пакетная обработка приводит его в ярость своей неэффективностью.

Концепция разделения времени позволяла компьютеру переключаться между задачами незаметно для пользователей, создавая ощущение, будто каждый из них работает с машиной единолично. Она же помогла свести к минимуму простои с потерями тогда весьма дорогостоящего компьютерного времени.

Изобретение системы разделения времени приблизило людей к пониманию, что с компьютером можно работать интерактивно – печатая на модифицированной электронной пишущей машинке и мгновенно получая ответы. Эта идея определила развитие информатики на десятилетия вперёд.

Из C.T.S.S. вырос совместный с Bell Laboratories и General Electric проект Multics, которым также руководил Корбато. Multics потерпел коммерческую неудачу, однако послужил вдохновением для инженеров Bell Labs, создавших операционную систему Unix.

С созданием систем разделения времени возникла необходимость в разграничении доступа к информации, что естественным образом привело Корбато к изобретению компьютерного пароля. Пароли в C.T.S.S., открывающие доступ к приватным наборам файлов пользователей, по праву считаются одним из первых известных механизмов компьютерной безопасности.

Фернандо Корбато – человек, придумавший компьютерный пароль

За заслуги в развитии компьютерных технологий доктор Корбато был в 1990 г. удостоен  «компьютерного Нобеля» – Премии Тьюринга.

Машинный интеллект находит новые знания в тексте научных статей

Искусственный интеллект уже доказал, что способен играть в шахматы на уровне гроссмейстеров, но под силу ли ему делать научные открытия? На этот вопрос ответили исследователи из Национальной лаборатории им. Лоуренса Беркли (Berkeley Lab): они показали, что алгоритм машинного обучения, практически без тренировки, может извлекать новые знания из просканированных текстовых аннотаций миллионов научных статей.

Коллектив, который возглавлял Анубхав Джайн (Anubhav Jain), ученый из подразделения Berkeley Lab по хранению энергии и распределённым ресурсам, собрал 3,3 млн. тезисов материаловедческих научных публикаций из 1000 журналов, вышедших с 1922 по 2018 гг., и «скормил» их алгоритму под названием Word2vec.

Анализируя взаимосвязи между словами, алгоритм смог предсказать открытие новых термоэлектрических материалов на годы вперед и предложить в качестве перспективных термоэлектриков еще неизвестные материалы. Об этом сообщает статья, вышедшая 3 июля в журнале Nature.

Машинный интеллект находит новые знания в тексте научных статей

«Не обладая какими-либо предварительными сведениями о материаловедении, он (алгоритм) усвоил такие понятия, как периодическая таблица и кристаллическая структура металлов, — рассказал Джайн. — Это говорит о потенциале метода. Но, наверное, самое интересное, выяснилось, что этот алгоритм можно применять для устранения пробелов в исследованиях материалов, вещей, которые давно следовало изучить».

Главной мотивацией проекта стала растущая сложность ориентирования в массе опубликованных исследований. В каждой области науки накопилось публикаций за сотни лет, и каждую неделю выходят десятки новых статей. Учёный может ознакомиться лишь с малой долей этих залежей знаний, поэтому напрашивалась попытка переложить задачу их освоения на системы машинного обучения, действующие без вмешательства человека (обучение без наставника).

Каждое из приблизительно 500 тысяч отдельных слов, встречавшихся в анализируемых аннотациях, Word2vec превращал в 200-мерный вектор — массив из 200 чисел. Это позволило исследовать взаимоотношения между словами и усваивать понятия материаловедения, используя стандартные операции векторной арифметики. Действуя по такой схеме Word2vec смог изучить даже связи между элементами периодической таблицы Менделеева, спроецировав вектор каждого химического элемента на два измерения.

Но главное открытие ждало исследователей когда они ознакомились со списком химических соединений, который был составлен алгоритмом Word2vec по принципу наилучшего соответствия слову «термоэлектрик». Этот термин определял материал, способный наиболее эффективно преобразовывать тепло в электричество, а также дешёвый в производстве и состоящий из распространённых и безопасных компонентов.

Для предложенных кандидатов в темоэлектрики учёные провели компьютерные симуляции в результате которых выяснилось, что первая десятка материалов имеет КПД преобразования энергии немного выше среднего значения по известным термоэлектрикам. Зато тройка лидеров прогноза по эффективности вошла в 5 процентов лучших термоэлектрических материалов.

Авторы также провели эксперимент по ретроспективному прогнозированию — пытались открыть уже открытые термоэлектрики на основании аннотаций, ограниченных сверху, например 2000-м годом публикации. Было установлено, что количество удачных «попаданий» оказалось в четыре раза больше, чем если бы алгоритм выбирал материалы случайным образом.

«Я был очень удивлен, увидев не только предсказания, но и их обоснование, такие понятия, как полуметаллические сплавы Гейслера, кристаллическая структура которых в наши дни является действительно «горячим» трендом для термоэлектриков», — пишет Джайн.

Помимо статьи, учёные опубликовали перечень 50 лучших термоэлектрических материалов, предсказанных их алгоритмом. Они также планируют предоставить инструкции, необходимые для создания других приложений, например, для поиска новых топологических изоляторов, и работают над созданием более мощного движка поиска в текстовых аннотациях.

Java и JavaScript все ещё лидируют по популярности

В начале 2019 г., софтверная фирма JetBrains провела опрос программистов, итоги которого, включающие анализ ответов примерно 7000 респондентов, были опубликованы ею в отчёте State of Developer Ecosystem. 
 
Здесь приведу несколько ключевых выводов из данного, довольно обширного исследования. Согласно им, среди языков программирования Java все ещё является самым популярным основным языком, JavaScript – самым частоиспользуемым, Go – наиболее перспективным, а Python, как вполне можно догадаться, – самым изучаемым.
 

Java и JavaScript все ещё лидируют по популярности

В течение последних 12 месяцев с JavaScript имели дело 69% разработчиков. Далее, в порядке убывания, следуют HTML/CSS (61%), SQL (56%), Java (50%), Python (49%) и языки сценариев Shell (40%).
 
«Самые излюбленные языки программирования это Java и Python. Второе место делят между собой C# и JavaScript. Но если результаты нормализовать по размеру выборки, то на первое место выйдет C#», – не очень понятно поясняет JetBrains.
 

Java и JavaScript все ещё лидируют по популярности

Среди самых популярных основных языков программирования места в первой пятёрке распределились следующим образом: JavaScript (40%), Java (34%), Python (27%), HTML/CSS (23%) и SQL (19%).
 
В качестве вспомогательных языков лидируют HTML, SQL и Shell-скрипты. Многие разработчики ПО время от времени используют их, но лишь единицы – в качестве основного рабочего инструмента. Например, 56% респондентов имеют опыт работы с SQL, но только 19% назвали его своим главным, и лишь 1,5% – первым языком.
 

Java и JavaScript все ещё лидируют по популярности

Самой популярной операционной средой оказалась Windows, её используют 57% разлаботчиков. На втором месте находится macOS (49%) и на третьем – Unix/Linux (48%).
 
Несколько неожиданным стало преобладание Google Cloud Platform над Microsoft Azure. Лидерство AWS на вызывало сомнений, этой облачной платформе отдают предпочтение 67% кодировщиков, однако доля любителей GCP составила 28% по сравнению со всего 21% для облака Microsoft.
 

Java и JavaScript все ещё лидируют по популярности

Такой относительной популярностью GCP, возможно, обязана средству контейнерной оркестровки Kubernetes; 41% разработчиков Kubernetes используют облако Google.
 
По типам приложений чаще всего разрабатывают back-end (60%) и front-end (46%) решения для web-сервисов, мобильное ПО (23%), библиотеки и фреймворки (14%), программы для десктопов (12%).
 

Java и JavaScript все ещё лидируют по популярности

Приблизительно 80% разработчиков используют средства групповой работы над исходным кодом; 75% предпочитают отдельные среды IDE; 71% – легковесные редакторы на десктопах; 45% применяют инструмент непрерывной интеграции или непрерывной доставки, вроде GitLabCI; а 44% используют систему отслеживания ошибок.
 

Java и JavaScript все ещё лидируют по популярности

Основными источниками данных для последнего отчёта JetBrains стали опросы, проведённые среди программистов Аргентины, Бразилии, Канады, Китая, Франции, Германии, Индии, Японии, Мексики, Польши, России, Южной Кореи, Испании, Турции, Украины, Великобритании и США – стран, на которые приходится примерно 70% глобальной экосистемы разработки ПО.
 

Google назвала причины «катастрофического» сбоя в работе её облака

Компания Google предоставила клиентам полный технический анализ «катастрофической» как она её охарактеризовала, аварии, нарушившей 2 июня работу ключевых веб-сервисов на четыре с половиной часа. Пострадали службы на только самой Google, но и пользователей Google Cloud, включая Snapchat, Vimeo, Shopify, Discord и Pokemon GO. 
 
Вице-президент Google по инженерным вопросам, Бенджамин Трейнор Слосс (Benjamin Treynor Sloss), на прошлой неделе принёс извинения, признав, что нормализация ситуации после происшествия заняла гораздо больше времени, чем предполагала компания. Он заявил, что ошибка конфигурации привела к падению трафика YouTube на 10% и Google Cloud Storage — на 30%. Также инцидент затронул один процент из более миллиарда пользователей Gmail.
 
 «Клиенты, возможно, столкнулись с увеличенной задержкой, периодическими ошибками и потерей подключения к экземплярам (инстансам) в регионах us-central1, us-east1, us-east4, us-west2, northamerica-northeast1 и southamerica-east1.  Экземпляры Google Cloud в us-west1 и во всех европейских и азиатских регионах не испытывали перегрузки в региональных сетях», – говорится в техническом отчете Google. Самыми худшими оказались последствия для Google Cloud Storage в регионе us-west2, там доля ошибок для корзин достигала 96,2%, и southamerica-east1 – 79,3%. Потери пакетов в Google Cloud Interconnect составляли от 10 до 100 процентов.
 
Среди попавших под удар служб Google Cloud Platform названы Google Compute Engine, App Engine, Cloud Endpoints, Cloud Interconnect, Cloud VPN, Cloud Console, Stackdriver Metrics, Cloud Pub/Sub, Bigquery, G Suite, региональные инстансы Cloud Spanner и региональные корзины Cloud Storage.
 
Сильно упрощенное объяснение того, что произошло, звучит так: изменения конфигурации, предназначенные для небольшой группы серверов в одном регионе были ошибочно применены к большему количеству серверов в нескольких соседствующих регионах. Из-за этого данные регионы работали на половине доступных им ресурсов.
 
Во следующем приближении Google трактует ситуацию таким образом: «Две обычно безобидные ошибки конфигурации и особый программный баг, наложившись, вызвали сбой». 
 
Во-первых, задания плоскости управления сетью и поддерживающая их инфраструктура в затронутых регионах были сконфигурированы так, чтобы останавливаться на время технического обслуживания. Во-вторых, инстансы кластерного ПО, поддерживающего функционирование плоскости управления сетью, были помечены как подходящие для включения в конкретный, относительно редкий тип события обслуживания. В-третьих, в программе, инициирующей события обслуживания, оказалась ошибка, позволяющая одновременно выводить из эксплуатации несколько независимых программных кластеров, в том числе находящихся в разных физических локациях.
 
Вдобавок, методы поддержания готовности инфраструктуры Google отреагировали на непредвиденную ситуацию парадоксальным образом, вызвав дополнительное снижение производительности работы сети. В отчёте Слосса говорится, что инженеры Google обнаружили сбой уже через две минуты после того, как он произошёл, однако нахождению и устранению причин аварии «существенно мешал отказ инструментов, конкурирующих за использование перегруженной сети».
 
Свой вклад в разразившийся хаос внесли неполадки в коммуникационных средствах Google, не давая инженерам связаться с пострадавшими клиентами и оценить масштабы инцидента. 
 
В настоящее время Google приостановила свое ПО автоматизации датацентров, отвечающее за перераспределение работ на время техобслуживания. Оно будет вновь запущено после того, как Google убедится, что проблема, вызывающая одновременные отключения в нескольких физических локациях, гарантированно устранена.
 
«Инструменты и процедуры реагирования на чрезвычайные ситуации Google будут пересмотрены, обновлены и протестированы, чтобы гарантировать их устойчивость к подобным сбоям в сети, включая наши средства для связи с клиентской базой. Кроме того, мы расширим режим непрерывного тестирования аварийного восстановления, включив в него этот и другие аналогичные катастрофические сбои», – подытожила свой отчёт Google. Компания не исключает, что после дальнейшего расследования обстоятельств инцидента будут определены дополнительные действия по повышению устойчивости её инфраструктуры.

Translatotron - машинный перевод устной речи на новом уровне

Системы устного машинного перевода, призванные упростить общение между людьми, говорящими на разных языках, разрабатываются уже несколько десятилетий. Обычно их создают из трёх отдельных компонентов, которые последовательно выполняют автоматическое распознавание речи с преобразованием её в текстовый вид; машинный перевод текста в текст на нужном языке; синтезирование речи на основании переведённого теста. Такие каскадные системы, доведённые до совершенства, с успехом используются во многих коммерческих технологиях устного перевода, включая Google Translate.

С 2016 года в сервисе Google Translate вместо прежних статистических систем начали применять нейронный перевод с использованием моделей глубокого обучения. Теперь же группа исследователей, включающая в себя участников проектов Google Brain, Google Translate и Google Speech, пошла дальше и разработала экспериментальную нейросеть, осуществляющую полный устный перевод фраз без промежуточного текстового этапа.

Translatotron - машинный перевод устной речи на новом уровне

Если сравнивать с каскадными системами, новая разработка под названием Translatotron имеет ряд очевидных преимуществ. Отсутствие разделения на этапы увеличивает скорость генерирования «умозаключений» (inference), позволяет избежать накопления промежуточных ошибок распознавания и перевода, улучшает обработку слов, которые не нуждаются в переводе, например, имён собственных.
 
Translatotron основана на нейросети, которая получает на входе исходные спектрограммы и генерирует спектрограммы переведённого содержания на целевом языке. В нем также применяется отдельно обученный нейронный вокодер, преобразующий на выходе спектрограмму в волновой сигнал.
 
Опционально возможно использование дополнительной нейросети кодировщика голоса с целью сохранения при переводе звуковых характеристик говорящего.
 
В ходе обучения модель фразового перевода параллельно с генерированием целевых спектрограмм предсказывает транскрипцию входящей и исходящей речи, однако никакие текстовые представления не используются для построения логических выводов.

Translatotron - машинный перевод устной речи на новом уровне

Авторы проверили качество работы Translatotron с помощью эталонного алгоритма Bilingual Evaluation Understudy (BLEU) Score. По шкале BLEU Translatotron лишь незначительно уступила традиционной каскадной системе, демонстрируя действенность концепции прямого машинного перевода речи в речь.
 
В испытаниях с использованием дополнительного голосового кодировщика Translatotron превзошла по точности перевода базовую каскадную систему. Перевод, озвученный голосом говорящего, воспринимается более естественно и несколько отличается от перевода с каноническим голосом, так как сеть обучалась на меньшем количестве примеров. Ознакомиться с качеством перевода можно здесь (https://google-research.github.io/lingvo-lab/translatotron/#conversation...)
 
Авторы надеются, что их работа послужит отправной точкой для для дальнейших исследований машинных технологий прямого устного перевода.

Дебют Uber на публичном рынке: не провал, но разочарование

Провайдер онлайнового сервиса по заказу такси вышел на публичные торги с достаточно скромной ценой 45 долларов за акцию. Она давала компании начальную капитализацию всего 75,5 млрд долл., что существенно ниже, чем те 120 млрд долл., на которые банки-инвесторы рассчитывали прошлой осенью.

Причин такого непритязательного начала было много, включая неудовлетворительный опыт IPO конкурента Uber Technologies, фирмы Lyft — она вышла на биржу 28 марта.

 не провал, но разочарование

Кроме того, время для дебюта оказалось крайне неудачным, неделя оказалась худшей для фондовых рынков за 2019 год. Индекс Dow перед началом торгов Uber упал на 300 пунктов из-за увеличения президентом Трампом пошлин на китайские товары. Перспективы новой торговой войны обрушили также индексы S&P 500 и Nasdaq, создав на рынке неопределённость. Не способствовали удачному IPO и стачки водителей Uber, недовольных размерами оплаты их труда.

Открытие акций на Нью-йоркской фондовой бирже в пятницу состоялось даже ниже заявленной цены IPO, а финишировали торги на отметке $41,57. Тем не менее, с финансовой точки зрения, назвать это IPO неудачным нельзя. Компания всё же получила 8,6 млрд долл., которые окажутся не лишними, учитывая убыточность её бизнеса.

Основные потери Uber — репутационные, они скажутся позднее и вероятно будут иметь более серьёзные последствия. Институциональные инвесторы, которые приобрели акции Uber в четверг, заплатили компании больше, чем могли бы, если бы купили акции на день позже на общих основаниях.

В такой переплате нет ничего необычного, она может служить знаком уверенности вкладчиков в перспективах компании. Первые дни или даже недели публичных продаж тоже не всегда показательны: примером может быть хотя бы неубедительное IPO Facebook, которая затем стала лидером индустрии.

Однако Uber теряет больше денег, чем любая другая компания, дебютировавшая на бирже до сих пор, и этот факт вряд-ли смогут игнорировать как инвесторы, так и инсайдеры. Многие из сотрудников, пришедших в компанию с надеждами на IPO, могут счесть свои ожидания обманутыми.

Uber часто сравнивает себя с Amazon, которая многие годы работала в убыток, прежде чем стала доходной, но инвесторы предпочитают руководствоваться не обещаниями, а цифры таковы: 1,1 млрд долл. потерь только за I квартал нынешнего года. Для Amazon путём к процветанию стали Amazon Web Services, а что станет спасательным кругом для Uber — летающие такси?

Хотя IPO Uber и уникально по масштабам, его прохладный приём не сулит ничего хорошего технологическим фирмам, готовящим собственные IPO в этом году. Начиная с января, многие, от Lyft до Pinterest, уже прошли это испытание, но ещё больше ждут своей очереди, с надеждой следя за настроениями на рынке.

 
 
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT