`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Возможное объяснение доминирования материи над антивеществом

Нейтрино и антинейтрино, иногда называемые призрачными частицами, потому что их трудно обнаружить, могут трансформироваться из одного типа в другой. Международное сотрудничество T2K объявило о первом указании на то, что доминирование вещества над антиматерией может происходить из-за того, что нейтрино и антинейтрино ведут себя по-разному во время этих осцилляций. Это важный этап в понимании нашей Вселенной. Группа физиков из Бернского университета внесла важный вклад в эксперимент.

Вселенная в основном состоит из материи, и кажущееся отсутствие антиматерии является одним из самых интригующих вопросов современной науки. Сотрудничество T2K с участием группы Бернского университета объявило, что симметрия между веществом и антиматерией (так называемая CP-симметрия, или зарядовая четность, изменяющая частицу на античастицу + зеркальное отражение физической системы) нарушается для нейтрино с вероятностью 95%.

Нейтрино проявляются в трех различных типах: электронное нейтрино, мюонное нейтрино и тау-нейтрино и их соответствующие античастицы (антинейтрино). В 2013 году T2K обнаружило новый тип трансформации между нейтрино, показавшее, что мюонное нейтрино преобразуется (осциллирует) в электронное нейтрино при движении в пространстве и во времени. Результат последнего исследования T2K отвергает с вероятностью 95% гипотезу о том, что аналогичная трансформация из мюонного антинейтрино в электронное антинейтрино происходит с одинаковой вероятностью. Это первое указание на то, что симметрия между веществом и антиматерией нарушается в нейтринных осцилляциях, и поэтому нейтрино также играют определенную роль в создании асимметрии вещества-антивещества во Вселенной.

«Этот результат является одним из самых важных результатов в физике нейтрино за последние годы, - сказал профессор Лаборатории физики высоких энергий Бернского университета и руководитель группы Bern T2K проф. Антонио Эредитато (Antonio Ereditato), - и это открытие - путь к еще более захватывающим достижениям, указывающим на существование очень малого, но измеримого эффекта». Проф. Эредитато добавил: «Природа, по-видимому, указывает на то, что нейтрино могут отвечать за наблюдаемое превосходство вещества над антивеществом во Вселенной. То, что мы измерили, оправдывает наши нынешние усилия по подготовке следующего научного предприятия DUNE, нейтринного детектора в США, который должен позволить сделать окончательное открытие».

В эксперименте T2K пучок мюонных нейтрино получается в Исследовательском комплексе протонных ускорителей (J-PARC) в г. Токаи на восточном побережье Японии и детектируется в 295 километрах гигантским подземным детектором Super-Kamiokande («T2K» означает «Из Токаи в Камиоканде»). Пучок нейтрино должен быть полностью охарактеризован сразу же после генерации, прежде чем нейтрино начнут осциллировать. Для этой цели был построен и установлен детектор ND280 вблизи точки вылета нейтрино.

Исследователи из Бернского университета вместе с коллегами из Женевы и ETH Zurich и других международных организаций внесли свой вклад в разработку, реализацию и работу ND280. Группа из Берна, в частности, позаботилась о большом магните, окружающем детектор, и построила и управляла так называемым мюонным монитором, устройством, необходимым для измерения интенсивности и энергетического спектра мюонов, создаваемых вместе с нейтрино. В настоящее время группа из Берна очень активно определяет вероятность взаимодействия нейтрино с прибором ND280 - важного компонента для достижения высокоточных измерений, таких как описанные здесь.

Возможное объяснение доминирования материи над антивеществом

Электронно-нейтринное взаимодействие, наблюдаемое экспериментом Т2К. Нейтрино взаимодействует с молекулой воды в объеме детектора, создавая электрон, который, в свою очередь, генерирует черенковское излучение, перемещаясь через детектор. Это излучение собирается специальными фотодетекторами и преобразуется в измеримый электрический сигнал

Поиск в Темной Сети для бизнес-разведки

Для многих Google Search определяет известные границы Интернета. В какой-то степени это верно, когда большая часть коммерческой веб-активности происходит на общедоступных доменах. Но есть и другие уровни в Интернете.

Помимо примерно 5% сайтов, которые сегодня доступны для поиска на рынке, существует также так называемая «глубокая сеть». Она включает большую часть оставшегося Интернета, обширный регион, содержащий неструктурированные данные от датчиков и устройств, временные страницы или страницы, скрытые за защитой паролем.

Есть еще один слой - Темная Паутина (Dark Web). Хотя она содержит небольшую часть общего Интернета, она доступна только через специализированные браузеры, такие как Onion Router (TOR) и I2P. Страницы здесь не доступны для поиска, хотя индексы действительно существуют. Это темные веб-сайты, у которых нет общих имен, только шестнадцатеричные строки буквенно-цифровых символов, которые торгуются лично среди пользователей, и поэтому эти сайты все чаще используются для секса, наркотиков и другой преступной деятельности, такой как обсуждение, торговля и продажа компьютерных уязвимостей.

На конференции RSA в Сан-Франциско в апреле Silobreaker, разведывательная платформа, разделила свое партнерство в презентации с компанией Flashpoint, которая занимается разведкой бизнес-рисков. Обе компании говорили о необходимости того, чтобы предприятия ориентировались на закрытые сообщества Темного Интернета, понимали, как действуют противники, и отделяли слухи от реальности.

Эти две компании используют разведку с открытым исходным кодом (OSINT) из общедоступных источников, в отличие от секретных или скрытых действий. В поисковом Интернете OSINT будет представлена сообщениями в Twitter и в других социальных сетях для разведки. OSINT в Темной Паутине состоит из членств в различных форумах.

Flashpoint говорит, что она контролирует примерно 330 форумов. Термины, используемые в этих форумах, являются контекстуальными и культурными. Ораторы на этих форумах не всегда прямые.
«Например, вы можете увидеть, что эксплойт доступен за 500 пончиков, - сказал Даррелл Джонстон (Darrell Johnston) из Silobreaker. - Если вы не знаете жаргон, вы не поймете, что пончики равны долларам, так что 500 долларов США за эксплойт».

Существуют также языковые проблемы. В дополнение к знаниям, связанным с преступностью, есть проблемы с локализацией. Чтобы решить их, Flashpoint наняла дюжину или около того лингвистов для разбора диалектов.

Что Silobreaker приносит на стол, так это удобный интерфейс, который позволяет исследователям информационной безопасности вводить фразы для поиска. Например, Джонстон набрал общее имя одной из последних уязвимостей. Инструмент искал не только общее имя на разных языках, но и связанные с ним общие уязвимости и экспозиции (CVE).

В других случаях поиски очень буквальны, например, поиск номера чьей-то кредитной карты. Или номер социального страхования. Результатом является то, сколько форумов или членов говорит об этом конкретном личном идентификаторе.

Возможность поиска в Темной Паутине не нова. DARPA, Агентство перспективных исследований Министерства обороны США, создало поисковую систему, известную как Memex, для правоохранительных органов специально для борьбы с использованием Темной Паутины для сексуальной торговли.

С момента своего создания в 2014 году компания Memex обошлась DARPA в 67 млн. долл. Она также использует различные коммерческие агенты, университеты и другие организации для разработки необходимой технологии. Сегодня более 33 правоохранительных органов пользуются такими бесплатными инструментами. Инструменты помогают исследователям фильтровать данные в Темной Паутине, расширяя существующую технологию поиска, чтобы понять изображения и связи людей. Затем они используют разведку для обнаружения сетей торговцев людьми и поведения, связанных с торговлей в Интернете.

«Наша цель - понять, как отслеживать торговлю людьми в онлайновых пространствах, будь то Темная сеть или открытая сеть, - сказал в январе Уэйд Шен (Wade Shen), менеджер программ в Информационном бюро инноваций DARPA. – Термин «Темная Паутина» используется для обозначения того факта, что преступления могут совершаться в этих местах, потому что они анонимны, и поэтому люди могут использовать [их] для гнусных действий». 

Поиск в Темной Сети для бизнес-разведки

COBOL не сдает позиций

Хотя ИТ считается областью, в которой перемены происходят наиболее быстро, COBOL чувствует себя довольно уверенно в этом быстроменяющемся ландшафте.

До того, как утвердился термин «информационные технологии», изучение COBOL (Common Business Oriented Language) было единственным верным способом обеспечить успешную карьеру в области ИТ.

Созданный легендарной Грейс Хоппер в 1959 году частично из предыдущей языковой разработки, COBOL был ранним примером попытки создать код «написал однажды, выполняй везде», когда было более типично писать программы на ориентированным на мэйнфреймы языке ассемблера.

Шестьдесят лет спустя можно было бы ожидать, что COBOL станет материалом для обзорных видеороликов в музеях компьютерной истории.

Вместо этого COBOL остается широко и активно используемым языком программирования во всей финансовой системе, без хорошего плана перехода на современные кодовые базы. Причем каждый год дописываются миллиарды строк для обслуживания и новых функций.

Компании, занимающиеся поддержанием работы систем на основе COBOL, говорят, что 95% транзакций банкоматов проходят на COBOL, на них полагается 80% личных транзакций, а более 40% банков по-прежнему используют COBOL в качестве основы для своих систем. «Наш бизнес COBOL сегодня больше, чем когда-либо», - сказал Крис Ливси (Chris Livesey), старший вице-президент и генеральный менеджер Micro Focus, компании, предлагающей современные системы кодирования и разработки на COBOL.

По оценкам Micro Focus, около 2 млн. человек во всем мире активно работают с COBOL, хотя ожидается, что это число быстро сократится в течение следующего десятилетия.

Тем не менее, переход должен произойти. «Устаревшие приложения на самом деле не достаточны для поддержки современных бизнес-требований, - говорит Дейл Веккио (Dale Vecchio), главный специалист по маркетингу LzLabs. - Вы не можете просто переписать все это, но вы не можете оставить все как есть».

Ливси из Micro Focus считает, что лучшее, на что можно было бы надеяться, это потратить миллионы и миллионы долларов, чтобы получить то, что уже есть.

Дело в том, что многие компании не знают точно, как работают их системы, поскольку давно установленные правила встроены в сотни тысяч и даже в десятки миллионов строк на COBOL. Большинство программ состоят из небольших модулей, которые выполняют обычные, легко дублируемые задачи, такие как создание конкретных отчетов. Но взаимодействие и пакетная обработка, выполненные среди них, в сочетании с неизбежными ошибками и обходными решениями в реализации и выражении языка, означают, что воспроизведение системы потребует больше, чем просто подачи ее в конвертер COBOL на C# или Java. Замена любой части кода может иметь совершенно непредсказуемые последствия для других частей, которые даже прямо не связаны с ней.

Правда, более поздние версии COBOL сделали его более современным, включая добавление объектно-ориентированной поддержки, но в этих версиях написано очень программ. И есть сотни других вариаций COBOL за последние 60 лет.

Прорыв в сверхбыстрой обработке данных на наношкале

Ученые недавно изобрели новый «конвертер», который может использовать скорость и малые размеры плазмонов для высокочастотной обработки и передачи данных в наноэлектронике.

Успехи в наноэлектронике, использующие нанотехнологию в электронных компонентах, подпитывается все возрастающей потребностью в сокращении размеров электронных устройств, в стремлении создавать быстрые и умные гаджеты все более малых размеров, такие как компьютеры, устройства хранения данных, дисплеи и медицинские диагностические инструменты.

В то время как большинство современных электронных устройств используют фотонику, фотонные элементы обычно имеют большие размеры, что значительно ограничивает их использование во многих современных системах наноэлектроники.

Плазмоны, которые являются квантами колебаний электронной плазмы, движущиеся вдоль поверхности металла после взаимодействия с фотонами, весьма перспективны для разрушительных технологий в наноэлектронике. Они сравнимы с фотонами с точки зрения скорости (они также движутся со скоростью света), и они намного меньше. Это уникальное свойство плазмонов делает их идеальными для интеграции с наноэлектроникой. Однако ранее попытки использовать плазмоны в качестве носителей информации имели мало успеха.

Заполняя этот технологический разрыв, исследовательская группа из Национального университета Сингапура (NUS) недавно изобрела новый «конвертер», который может использовать скорость и малые размеры плазмонов для высокочастотной обработки и передачи данных в наноэлектронике.

«Этот инновационный преобразователь может напрямую преобразовывать электрические сигналы в плазмонные сигналы и наоборот, за один шаг. Соединяя мостом плазмонику и наноразмерную электронику, мы можем потенциально увеличить скорость работы микросхем и снизить потери мощности. Наш плазмонно-электронный преобразователь примерно в 10 тыс. раз меньше, чем оптические элементы. Мы считаем, что он может быть легко интегрирован с существующими технологиями и может потенциально использоваться в самых разных областях применения в будущем», - объяснил доцент Кристиан Нийхьюс (Christian Nijhuis) с химического факультета NUS, который являлся руководителем исследовательской группы.

Чтобы преобразовать электрические сигналы в плазмонные и наоборот за один шаг, команда NUS использовала процесс, называемый туннелированием, в котором электроны перемещаются от одного электрода к другому электроду и тем самым возбуждают плазмоны.

«Обычный двухэтапный процесс рождения плазмонов занимает много времени и неэффективен. Наша технология отличается тем, что мы предоставляем единое решение для преобразования электрических сигналов в плазмонные сигналы. Это может быть достигнуто без источника света, который требует многоступенчатых и больших оптических элементов, что усложняет интеграцию с наноэлектроникой. Основываясь на наших лабораторных экспериментах, конверсия между электронами и плазмонами имеет эффективность более чем 10%, что более чем в 1000 раз выше, чем сообщалось ранее», - добавил он.

Исследовательская группа подала четыре патента на изобретение и сотрудничает с промышленными партнерами для интеграции плазмонно-электронных «преобразователей» с существующими технологиями.

Ученые планируют провести дальнейшие исследования по уменьшению размера устройства, чтобы оно могло работать на гораздо более высоких частотах. Команда также работает над интеграцией преобразователей с более эффективными плазмодинамическими волноводами для лучшей производительности.

Вторая жизнь VDI

Инфраструктура виртуального десктопа (или VDI) давно является интригующей идеей. Однако по тем или иным причинам она не получила широкой поддержки. Сможет ли появление гиперконвергентной инфраструктуры (HCI), наконец, сделать реализацию виртуальных десктопов масштабной?

VDI - одна из тех привлекательных технологий, которая отлично смотрится на бумаге, но на протяжении многих лет она не получала широкого признания по различным финансовым, техническим, культурным и даже философским причинам.

Однако относительно новая архитектура, называемая гиперконвергентной, которая объединяет вычисления, хранение и сетевое взаимодействие в одном устройстве ЦОД, может вдохнуть новую жизнь в VDI за счет снижения затрат и сложности, связанных с ее развертыванием.

Что, если корпоративные ИТ могут выйти из дорогостоящего и трудоемкого цикла замены настольных компьютеров и ноутбуков каждые два или три года, а затем постоянно занимаются исправлением, обновлением и обслуживанием этих устройств? И что, если это может существенно снизить возможность потери данных в конечных точках?

С VDI операционная система и все приложения размещаются на виртуальных машинах (ВМ), работающих в безопасном ЦОД. Компании экономят на стоимости оборудования за счет развертывания недорогих тонких клиентов, перепрофилирования старых десктопов или на использования движения BYOD и приобретении сотрудниками собственных устройств.

Данные не подвержены риску, поскольку на виртуальном десктопе нет жесткого диска. VDI предлагает преимущества централизованного управления и позволяет сотрудникам безопасно получать доступ к своим виртуальным десктопам в любое время из любого места на любом устройстве.

Однако наряду с видимыми преимуществам VDI имеет не очевидные с первого взгляда недостатки. VDI пообещала, что будет огромная экономия денег, но приверженцы технологии обнаружили, что VDI не уменьшает затраты, а просто перекладывает их на другие операции, такие как модернизация сети, чтобы обеспечить надежность и удобство, ожидаемые пользователями. Затем компаниям пришлось добавить дорогостоящее хранилище и вычислительные мощности ЦОД. И VDI требовала перекомпоновки архитектуры ЦОД, чтобы обрабатывать специфические для VDI ситуации, такие как ежедневный шторм входа в 9 утра.

Менеджмент - еще одна область, где предполагаемые выгоды VDI оказались несколько иллюзорными. Ожидание того, что ИТ может создать «золотой образ» десктопа конечного пользователя и обновить или исправить тысячи десктопов одним щелчком, звучит отлично, но оправдывается только в редких специальных случаях.

Но реальная жизнь более жестока и менее контролируема. У вас есть сотрудники с собственными устройствами, работающими в различных операционных системах. Некоторые сотрудники работают на унаследованном или настроенном под конкретную задачу приложением. И даже сотрудники одного отдела могут иметь свое собственное конкретное сочетание приложений.

У VDI есть еще два больших недостатка. Первый, если сервер VDI падает или если соединение с ним прерывается, никто не работает. Второй, с VDI сотрудники не могут работать в автономном режиме, поскольку на устройстве ничего не сохраняется. Кроме этого, попытка навязать централизованное управление противоречит персонализации и настройке, которые сотрудники ожидают.

Облачные вычисления также несколько подпортили репутацию VDI.
Запуск VDI из облака создает новые проблемы безопасности, подключения и затрат.

Ответом на эти проблемы может быть гиперконвергентная инфраструктура (HCI). Это относительно новая архитектура, которая объединяет гипервизор, вычисление, хранение и сети в модульных строительных блоках. HCI также может включать в себя резервное копирование, репликацию, облачный шлюз, кеширование, WAN-оптимизацию и дедупликацию в режиме реального времени.

HCI может сократить расходы несколькими способами. Во-первых, стоимость оборудования HCI со всеми компонентами ЦОД, которые уже в комплекте, дешевле, чем покупка этих устройства по отдельности. HCI обеспечивает более простое управление, автоматические обновления, снижение затрат на обслуживание и более быструю, более легкую масштабируемость.

Поставщики HCI специально нацеливают свои устройства на рынок VDI, а некоторые предлагают автоматическое развертывание VDI. Для компаний, обеспокоенных безопасностью своих конечных точек или поиска альтернативы традиционному жизненному циклу десктопа, VDI на HCI - это то, что должно быть принято во внимание.

На пороге компьютерных чипов следующего измерения

Исследовательское сотрудничество между Университетом Осаки и Институтом науки и технологии Нары впервые использовало сканирующую туннельную микроскопию (STM) для создания изображений атомарно плоских боковых поверхностей трехмерных кристаллов кремния. Эта работа помогает полупроводниковым производителям продолжать внедрять инновации, производя меньшие, более быстрые и энергоэффективные чипы для компьютеров и смартфонов.

Наши компьютеры и смартфоны содержат миллионы крошечных транзисторов. Производительность этих устройств со временем значительно увеличилась, так как количество транзисторов, которые могут поместиться на одном компьютерном чипе, продолжает увеличиваться. Основываясь на законе Мура, плотность транзисторов на чипе удваивается примерно каждые два года. Чтобы поддерживать этот темп, производители компьютеров постоянно ищут новые методы, позволяющие уменьшить каждый транзистор.

Современные микропроцессоры производятся путем наложения паттерна схем на плоские кремниевые пластины. Новый способ набить больше транзисторов в одно и то же пространство - это создание трехмерных структур. Плавниковые полевые транзисторы называются таковыми, поскольку они имеют похожие на плавник структуры кремния, которые выступают наружу с поверхности чипа. Однако для этого нового метода требуется кремниевый кристалл с идеально плоской боковой поверхностью, а не только с верхней поверхностью, как с современными устройствами. Проектирование следующего поколения чипов потребует новых знаний об атомных структурах боковых поверхностей.

Теперь исследователи из Университета Осаки и Института науки и техники Нары сообщают, что они впервые использовали STM для получения изображения боковой поверхности кремниевого кристалла. STM - это мощный метод, позволяющий видеть расположение отдельных атомов кремния. Подводя острый наконечник очень близко к образцу, электроны могут перепрыгнуть через зазор и создать электрический ток. Микроскоп фиксировал этот ток и определял местоположение атомов в образце.

«Наше исследование - большой первый шаг к оценке транзисторов на уровне атомного разрешения, предназначенных для 3D-структур», - говорит соавтор исследования Адзуса Хаттори (Azusa Hattori).

Чтобы сделать боковые поверхности максимально гладкими, исследователи сначала обработали кристаллы с помощью процесса, называемого реактивным ионным травлением. Соавтор Хидекадзу Танака (Hidekazu Tanaka) говорит: «Наша способность напрямую смотреть на боковые поверхности с использованием STM доказывает, что мы можем создавать искусственные 3D-структуры с почти совершенным атомным упорядочением поверхности».

На пороге компьютерных чипов следующего измерения

Пространственно разрешенные STM-изображения размером 200x200 нм2 при напряжении туннелирования Vs = +1,5 В. Плоские террасы становятся ярче и края темнее. Нижнее направление проходит от левой ((110) верхней поверхности) к правой ((-1-10) задней поверхности)

Сверхэнергоэффективная магнитная память, управляемая формами атомов

Исследовательская группа, возглавляемая Университетом Осаки, открыла новый принцип реализации сверхэнергоэффективной магнитной памяти с помощью электрического управления формой атомов.

Энергонезависимая магнитная память с использованием магнитов нанометрового размера, MRAM (магниторезистивная память произвольного доступа), требует перемагничивания путем приложения напряжения. Таким образом, предпочтительной является сверхэнергоэффективная регенерация намагничивания в пределах наносекунд. Тем не менее, добротность текущей технологии - магнитной анизотропии, управляемой напряжением (VCMA), - была меньше одной десятой уровня, необходимого для применения. Поэтому важно было разработать эффективные методы VCMA с использованием новых материалов.

Доцент Синдзи Мива (Shinji Miwa) из Университета Осаки, д-р Мотохиро Судзуки (Motohiro Suzuki) из Японского исследовательского института синхротронного излучения, ассистент профессора Масахито Цуджикава (Masahito Tsujikawa) из Университета Тохоку и др. сформировали платиновый одноатомный слой, помещенный на ферромагнитное железо (система FePt | MgO), который управлялся на атомном уровне.

Поскольку существует корреляция между спин-орбитальным взаимодействием и VCMA, эта группа фокусировалась на FePt | MgO, который содержит платину с большим спин-орбитальным взаимодействием. Используя FePt | MgO, группа провела эксперименты, чтобы изучить VCMA в рентгеновских пучках в установке синхротронного излучения SPring-8.

Из этих экспериментов и теоретических расчетов ученые обнаружили, что система FePt | MgO, которая продемонстрировала VCMA 140 фДж/В*м, имела два разных механизма и потенциально обладала огромным VCMA за пределами 1000 фДж/В*м.

Эта группа наблюдала изменения магнитного дипольного члена в зависимости от напряжения в эксперименте на SPring-8. Из теоретических расчетов было обнаружено, что в системе FePt | MgO VCMA от традиционно известного Механизма A (орбитальный магнитный момент индукции) и недавно обнаруженного Механизма B (магнитный дипольный член индукции) частично исключали друг друга, в результате чего VCMA составляла 140 фДж/В*м.

Использование достижений этой группы при разработке материалов позволит получить VCMA в 10 раз больше, чем у существующих материалов, что может привести к энергосберегающей энергонезависимой памяти с низким тепловыделением.

Сверхэнергоэффективная магнитная память, управляемая формами атомов

Изображение трансмиссионной электронной микроскопии. Был подготовлен наномасштабный магнит FePt, который управлялся атомами (справа). К образцу было приложено внешние напряжения и проведен эксперимент по синхротронному рентгеновскому поглощению

Феномен Red Hat

Облако стало проклятием для традиционных поставщиков. Не так происходит с Red Hat, которая не только нашла способ сосуществовать с публичным облаком, но и процветать в нем.

Тайная формула Red Hat для создания миллиарда долларов на продаже открытого программного обеспечения не так уж и секретна. Что все еще в какой-то мере окутано тайной, так это то, что движет бизнесом Red Hat. Если одним словом, то облако.

Год назад аналитики указали на облако как на предвестника гибели Red Hat. Сегодня те же аналитики медленно открывают возможности, которые мультиоблачный мир предоставляет гиганту открытого исходного кода.

Действительно, успех Red Hat является признаком того, что предприятия, хотя и созревшие для использования публичного облака, прагматичны в отношении того, как они туда попадут. Многие предприятия, по-видимому, хотят, чтобы их предпочтительные поставщики ЦОД сопровождали их на пути к облакам.

Копаясь в доходах Red Hat, можно обнаружить, что основной движущей силой роста является облако и более старые бизнесы, такие как Linux, но функционирующие по-новому, как облачные бизнесы, подобно OpenShift, популярность которого быстро растет.

Год назад крупнейшая сделка Red Hat стоимостью более 20 миллионов долларов была связана с Linux. Сегодня, погрузившись в подробности 26 сделок Red Hat в прошлом квартале стоимостью более 5 миллионов долларов, можно обнаружить, что они включали «практически полностью OpenShift» или «в первую очередь OpenShift», как сказал СЕО Red Hat Джим Уайтхерст (Jim Whitehurst) аналитикам по поводу дохода от сделок.

Заменяет ли облако, в том числе облачный сервис OpenShift, некоторые варианты использования промежуточного ПО? Да, но «одной из наших сильных сторон является то, что мы можем запускать как традиционные приложения с учетом состояния, так и облачные приложения», используя OpenShift, отметил Джим Уайтхерст. Таким образом, Red Hat позиционирует себя как для сторонников облаков, так и для компаний, относящихся к ним с осторожностью.

Хотя основные доходы Red Hat обеспечивает облако, но в них вносят вклад и унаследованные продукты, такие как RHEL и Jboss. Это указывает на то, что предприятиям не стоит терять свои инвестиции в технологии при переходе в облако, а скорее искать способы объединить свои «земные» ЦОД с публичными и гибридными облачными сервисами.

Учитывая масштабы сдвига в облака, вполне вероятно, что Red Hat может потратить следующее десятилетие, «печатая деньги» на предоставлении помощи предприятиям перемещаться в облако. В этом мире OpenShift заменяет RHEL как основную «операционную систему».

В то же самое десятилетие, однако, следующая большая волна Red Hat, вероятно, будет включать в себя проекты с открытым исходным кодом по машинному обучению/искусственному интеллекту (ML/AI), которые такие компании, как Google, продолжают выпускать. В модели Red Hat нет необходимости изобретать технологию для получения прибыли от нее. Вместо этого ей платят за то, что она вносят вклад в эти проекты и упаковывают их таким образом, чтобы сделать их более легкими для потребления предприятиями. В недавнем интервью Уайтхерст подтвердил это, заявив: «Теперь, когда крупные предприятия также вносят свой вклад в открытый исходный код, у нас есть практически неограниченный объем материалов, чтобы донести к ним наши знания».

Короче говоря, так же, как Google, Amazon и Microsoft проложили путь к облачному будущему, а клиенты Red Hat платят ей за то, что она проложила его для них, эти же компании выпускают фантастическое ПО с открытым кодом для ML/AI, которое Red Hat будет делать более удобным для потребления простыми смертными.

Феномен Red Hat

Три новых технологии для переосмысления безопасности

Один из самых разрушительных аспектов современных кибератак – это развитая целевая угроза, когда атакующий способен проникнуть в сеть и оставаться в ней в течение длительного периода времени, переходя от системы к системе и собирая ценные данные. Целью систем безопасности должно быть предотвращение таких атак. Три относительно новые технологии могут сыграть важную роль в защите серверов и сети от целевых атак.

Первая из них – это микросегментация. Это новая версия старой идеи брандмауэра. Основная концепция брандмауэра заключается в том, что не каждому серверу должно быть разрешено подключаться к каждому другому. Большинство брандмауэров размещаются на границе сети, чтобы жестко контролировать входящий или исходящий трафик. Но все серверы в пределах этой границы, или периметра, обычно считаются доверенными и поэтому им позволяют общаться без ограничений. Как только злоумышленник проникает за периметр брандмауэра, он может перемещаться относительно легко от сервера к серверу, ища нужную информацию. Микросегментация похожа на миниатюрный брандмауэр, который может устанавливать границу вокруг одного сервера, тем самым предотвращая случайные соединения между серверами. Это очень эффективный способ остановить внутреннее распространение вредоносного ПО на предприятии.

Микросегментация может быть выполнена в самой ОС, но этот метод имеет слабость - как только злоумышленник проник в ОС, он может обойти любые элементы управления. Наиболее эффективная форма микросегментации выполняется на уровне гипервизора – слое, лежащем ниже ОС. Основные гипервизоры, такие как VMware, и поставщики услуг, такие как Amazon, Google и Microsoft, предлагают некоторую форму микросегментации.

Второй технологией является веб-изоляция. Основным источником атак является контент, созданный с помощью методов социальной инженерии, который заставляет пользователя нажимать ссылку. Затем злоумышленники используют веб-трафик для доставки кода в машину пользователя и получают пропуск в сеть. Попытка отслеживать каждую уязвимость в Интернете является невыполнимой задачей, поэтому множество новых поставщиков разработали технологию, называемую веб-изоляцией. Идея состоит в том, чтобы запускать веб-страницы в безопасном контейнере, а затем просто доставлять готовые веб-страницы в браузер.

Преимущество веб-изоляции заключается в том, что вам не нужны какие-либо предварительные знания об атаке, поскольку вредоносное ПО хранится в «чашке Петри», где оно не может навредить конечному пользователю. Это очень эффективная стратегия, и она быстро внедряется ИТ-подразделениями по всему миру. К основным поставщикам относятся традиционные поставщики веб-безопасности, такие как Symantec и Proofpoint, а также некоторые пионеры в этой области, такие как Menlo Security.

Наконец третья технология – это неизменяемость сервера. Она основана на идее, что большинство компонентов сервера никогда не должны меняться после их загрузки в память и запуска. Предполагается, что когда злоумышленники получают привилегированный доступ к ОС, они могут делать любые изменения, которые они хотят. ОС не может защитить себя от атак. Несколько проектов с открытым исходным кодом показали свою эффективность в этом направлении: App Armor и SC Linux - два из самых заметных. Эти проекты не получили широкого распространения, поскольку они могут быть сложными в использовании. Тем не менее, новые достижения в области технологии виртуализации серверов могут создать платформу для доставки действительно устойчивых к изменениям систем. Более того, тенденция использовать «родные» облачные приложения на основе контейнеров означает, что приложения в меньшей степени зависят от ОС. ОС никогда не следует исправлять или обновлять, а просто загрузить новый образ или создать новый сервер. В этом типе облачной среды, где сервер легко удаляется и восстанавливается, никогда не нуждается в обновлении или изменении, вполне возможно жестко заблокировать конфигурацию сервера и тем самым уменьшить поверхность атаки. Неизменяемость является перспективной областью и, вероятно, будет активным решением в следующем году.

Эти три новые технологии, хотя и не являются панацеей, значительно усложнят для атакующих достижение своих целей – кражи ценных данных.

Инновационная система управления открывает путь для масштабных квантовых вычислений

Изобретена методология управления отказоустойчивыми квантовыми вычислениями на основе базового строительного блока из восьми кубитов с фиксированным набором аппаратных средств управления.

Будущие квантовые компьютеры обещают экспоненциальное масштабирование вычислительной мощности с линейно увеличивающимся числом кубитов. Однако использование этой мощности затруднено из-за сложности управления большим количеством кубитов одновременно. Решение этой проблемы было разработано Ричардом Верслюсом (Richard Versluis), главным ученым из TNO, Лео Дикарло (Leo DiCarlo), доцентом в TU Delft, и постдокторантом Стефано Полетто (Stefano Poletto) при поддержке коллег из TNO (Netherlands Organization for Applied Scientific Research) и TU Delft в QuTech и Intel. Они изобрели методологию управления отказоустойчивыми квантовыми вычислениями на основе базового строительного блока из восьми кубитов с фиксированным набором аппаратных средств управления. Этот базовый строительный блок может быть воспроизведен в больших массивах кубитов без какого-либо увеличения или изменения аппаратного обеспечения.

Благодаря этому новому методу, кубитовая коррекция ошибок и логические операции, необходимые для выполнения сложных алгоритмов на крупномасштабных квантовых компьютерах, теперь стали возможными на любом количестве кубитов.

Знаменитая цитата лауреата Нобелевской премии физика Ричарда Фейнмана «Там, внизу, есть много места», указывает, что на квантовой шкале есть целый мир. Он был одним из первых, кто отметил, что сложность моделирования квантовомеханических систем также может быть превращена в мощный ресурс: поскольку для адекватного моделирования квантовомеханических систем требуется множество параметров, можно рассматривать связанные квантовомеханические системы как системы, которые могут хранить и манипулировать огромными объемами данных. С тех пор люди придумали умные алгоритмы для квантовых компьютеров, которые будут превосходить обычные суперкомпьютеры в решении различных проблем, таким как взлом кода, поиск и анализ данных и определение свойств химических веществ. Такие алгоритмы требуют миллионов кубитов, и стремление увеличить количество управляемых кубитов является сложной задачей.

Основная задача для квантовых компьютеров, которые теперь состоят из нескольких кубитов, - их масштабируемость. Для выполнения квантовых алгоритмов с разумным успехом понадобятся миллионы кубитов, чтобы преодолеть присущую им нестабильность и исправлять ошибки в системе. До сих пор системы управления кубитами обычно становились все более и более сложными с ростом числа кубитов. Это не является серьезной проблемой в экспериментальных квантовых микросхемах с небольшим количеством кубитов, но нет никаких концепций для управления тысячами и миллионами кубитов и в то же время выполнения коррекции ошибок на кубитах.

Исследователи из QuTech, сотрудничества, основанного Техническим университетом в Делфте и TNO, разработали решение этой проблемы масштабирования для сверхпроводящих кубитов. В решении используется аппаратное обеспечение размером с небольшой книжный шкаф для управления базовым набором из восьми кубитов. При копировании и вставке восьми кубитов на чипе одна и та же система управления может управлять любым количеством кубитов индивидуально, от 8 кубитов до 8 миллионов или более, и реализовать вентили, необходимые для квантовой коррекции ошибок. Это позволяет программистам выполнять квантовые алгоритмы на любом количестве кубитов. Следующей целью QuTech является применение этого метода для реализации 17-кубитового квантового процессора с коррекцией ошибок в текущем проекте. Это будет рекордное в мире количество кубитов с индивидуальным управлением и исправлением ошибок.

Инновационная система управления открывает путь для масштабных квантовых вычислений

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT