`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

µScalpel (автоматическая трансплантация), и пара слов о Docker

«Повторное использование кода» - замечательная в теории и на удивление сложная в практической реализации, идея. На более приземлённых уровнях практических подходов эта идея реализуется от проектирования на основании критерия «пригодности к повторному использованию» (что даже на бумаге бесчисленных тематических книг выглядит далеко не просто, и, тем более, не универсально) до всевозможных пост-проектных, «работающих» на этапе жизненного цикла ПО, методологий (выявления фрагментов с клонированной функциональностью, миграции и утилизации кода, анализа зависимостей, техник выделения деталей-features).

Всё это на деле – не инструменты, а, чаще всего, даже не пригодные для разработки инструментария (то есть, не формализуемые) «подходы».

Если говорить об этапе жизненного цикла ПО, можно сформулировать задачу «повторного использования кода» следующим образом – из кода программной системы-донора таким образом выделить завершённый его фрагмент (или множество фрагментов как завершённое целое), чтобы, дополнив им целевой код, расширить его функциональность.

В Университетском колледже Лондона (UCL, University College London) попробовали решить эту задачу до уровня работающего инструмента. И получили пусть пока ограниченный в возможностях (в первую очередь, в языке реализации системы-донора и целевой системы, им может быть только С), но подтверждённо работающий инструмент.

Так, одной из тестовых задач было автоматическое выделение кода кодека H.264 из большой и далеко не новой библиотеки x264 для дополнения функциональности известного плейера VLC. Задача была решена в полностью автоматическом режиме за 26 часов машинного времени. На эту же работу «вручную» программистам необходимо минимум 20 полных рабочих дней.

Эта задача интересна даже на уровне мотивации – казалось бы, зачем что-то делать с кодом библиотеки, по сути реализующей требуемое? Проблема в разных проектных темпах (к слову, характерная для open source разработки) –за 11 лет x264 претерпела 39 фундаментальных модификаций, изменяющих API. При затратах 20 рабочих дней на каждую ручную «трансплантацию» кода x264 в код VLС, только эта процедура «выедает» больше трёх лет непрерывного труда. Кроме того, автоматическая трансплантация кода «очищает» оригинальную библиотеку от более чем 47% избыточного кода (ни для кого не секрет, что избыточный код – это источник потенциальных опасностей и уязвимостей).

Лаконично и высокоуровнево суть «автоматической трансплантации» можно описать так: постановщик задачи находит в коде-доноре точку входа в подсистему, реализующую требуемую функциональность, определяет аналогичную точку входа в коде целевой системы, точно формулирует интерфейс и разрабатывает систему тестов, позволяющих определить и подтвердить «завершённость пересадки».

После чего инструмент «автоматической трансплантации» выделяет «орган донора» (код, реализующий функциональность и весь требуемый ему код), трансформирует его с учётом пространства имён и контекста кода целевой системы и непрерывно тестирует до получения работающей версии целевого кода.

На первый взгляд, решение такой задачи кажется не автоматизируемым. Просто «вырванный» из системы-донора код очевидно вообще не будет ни компилироваться, ни, тем более, собираться редактором связей. Идентификация семантически связанных и необходимых фрагментов кода – сама по себе задача непростая и для профессионально подготовленного человека, требуемые модификации абсолютно нетривиальны, в общем, это как будто фантастика.

Алгоритм µTrans и его инструментальная реализация µScalpel эту фантастику превращают в реальность. Принципиальная работоспособность µScalpel пока подтверждена пятнадцатью экспериментами, двенадцать из которых оказались успешными «трансплантациями» из пяти «донорских» программ в три целевые (все использованные для этого программы – реальные, а не учебные или специально разработанные).

С другой стороны, внимательный читатель уже должен был заметить в самом высокоуровневом описании «автоматической трансплантации» слова «программист точно формулирует интерфейс и разрабатывает систему тестов». Их достаточно для понимания очевидного – даже овеществлённая на первый взгляд фантастика никакого отношения к магии не имеет.

Насколько хорошо программистом решены эти задачи (и решаемы ли они вообще в конкретном случае), настолько хорошим будет результат «трансплантации».

Следовательно, фундаментальную функциональность трансплантируемого кода-органа всё равно надо превосходно знать, код «донора», так и целевой программы тоже, до детального понимания потребностей на уровне формализации API и набора тестов. Эти задачи, конечно же, не автоматизируются. А, так как они крайне нетривиальны, то и для реального «боевого» применения µScalpel очень легко отыскать нишу. Аналогичную ситуации разработчиков VLC – в случаях трансплантации кода из долгоживущей системы с несовпадающей с целевым проектом скоростью развития. В таких случаях есть смысл затратить усилия на освоение очень специфического инструмента, на глубокий анализ и разработку серьёзной системы тестов. Как видно из опыта разработчиков VLC, эти затраты времени окупаются.

Глубже погружаться не будем. µScalpel – проект открытый (включая исходные тексты, конечно), весьма неплохо документированный и требующий де-факто стандартной рабочей станции Linux (64-битовой с не менее чем 16 GB RAM). Для удобства развёртывания разработчики предусмотрели и готовые Docker-образы. Так что можно пробовать. Очень интересная разработка (и хорошо, что удалось избежать упоминаний «искусственного интеллекта», несмотря на использование в µTrans весьма хитрого генетического алгоритма; ничего общего с «интеллектом» это, конечно же, не имеет).

Теперь пара слов о Docker.

Новая версия (1.8) даёт администраторам и деплой-инженерам очень важный инструмент безопасности, которого многие ждали. DCT, Docker Content Trust, «вписана» в систему так, что на уровне команд (и скриптов) её практически нет – всё остаётся так же, как было (что особенно ценно). Но при этом появляются двухключевая защита репозиториев (один ключ для одного владельца репозиториев – оффлайн, второй, точнее, семейство ключей – экспортируемые маркировочные, tagging ключи), расширенные средства подтверждения подлинности содержимого образов, и в результате – защита от всевозможных злонамеренных действий, как-то – от компрометации ключей, подделки образов и атак повторного воспроизведения (replay attacks).

В общем, тоже не буду вдаваться в детали, кому они интересны и нужны – самостоятельно разберутся, прочим же, кто просто слышал и интересуется Docker, могу сказать, что система за этот год набрала невероятную скорость развития и с введением серьёзной системы безопасности становится полноценным и очень опасным «врагом», например, виртуальных машин и гипервизоров (особенно если учесть растущую заинтересованность компаний в простых и реально работающих механизмах развёртывания ПО).

Откланиваюсь

Windows 10 и приватность (и небольшая, но хорошая польза для новой системы)

Как принято предупреждать, – последующий текст угрожает душевному спокойствию слабонервных (хотя бы потому, что их душевному спокойствию угрожают они сами).

Очень быстрое распространение Windows 10, естественно, дало повод пишущим собратьям сделать хоть что-нибудь. Кто-то пишет пространные статьи о меню Start (поразительно, но это можно сделать на пяти страницах). Кто-то что-то поругивает. И, конечно же, некоторые делают Панику (на неё всегда большой спрос).

Суть паники предельно проста – Windows 10 шпионит за вами. Кто только об этом не написал. И чего только. «Кошмар для приватности» etc.

Постараюсь не уподобляться пишущим из этой категории и не стану «размахивать дубиной», чтобы «развенчать и не оставить камня на камне».

Напротив, попробую разобраться, что же произошло, что делать нам, пользователям, и чего категорически нельзя делать, например, разработчикам ориентированных на конечных пользователей дистрибутивов ОС Linux (почему речь в том числе и о них – будет понятно далее).

Преамбула закончена, осталось единственное исключительно важное отступление, которое необходимо сделать. Почему-то напомнить об этом было некому. Windows 10 (как и предыдущие системы семейства) остаётся по сути единственной реальной ОС для рабочих станций. То есть, для персональных машин, ориентированных на создание контента. (Специально для нервных – я знаю о существовании Mac OS X, это прекрасная система, но она не может претендовать на роль полноценного заменителя Windows всегда и для всех задач из-за отсутствия массы профессиональных прикладных пакетов программ; то же самое можно сказать и о самых хороших дистрибутивах Linux, и, если бы было не так, никто бы в мире не заметил вообще выхода Windows 10). Соответственно, понятие приватности для пользователя рабочей станции – это не только (и, скорее всего, не столько) стандартный перечень всего, на что облизываются маркетологи, но и «приватность контента». Важная деталь, почему-то всей о ней забывают, даже самые громогласные истерички. 

Итак, начнём с того, что никто никогда не читает. С документа «Privacy Statement». Это важный в контексте документ, он в какой-то мере объясняет трансформацию очевидных деталей в повод для Паники.

Но ничего особенно кошмарного в «Privacy Statement» нет. Потому что в нём речь идёт по сути не об ОС, а о наборе сервисов Microsoft.
Например, термины приватности персональных файлов. Да, Microsoft открыто говорит, что «собирает» контент. Но также прямо в тексте сказано – это утверждение относится к OneDrive, основной функцией которого и так является «собирание» и хранение контента. То же самое можно сказать и об электронной почте на базе сервисов Microsoft, и о мессенджерах (причём Skype в явной форме не указан, но очевидно подразумевается). Собственно говоря, все эти особенности есть у любых сервисов аналогичного назначения.
И то же самое видно в каждом разделе «Privacy Statement» – по сути, речь идёт не об ОС, а о наборе сервисов, поддержку которых Microsoft, следуя примеру успешных сервис-ориентированных компаний, интегрирует в ОС. Вот это, как раз, самое серьёзное, заслуживающее обсуждения. Что же касается всех privacy-опасностей Windows 10, то никаких ужасов я не вижу. Вижу порой неприятное, но не более того.

Например, никто не обязывает «привязывать» ОС к аккаунту Microsoft. Но если предыдущая версия ОС была «привязана» к аккаунту, то, само собой, процедурой обновления системы по лицензионному номеру будет автоматически восстановлен и пользователь, и привязка к аккаунту (без запроса пользователя о его желаниях, хотя они вполне могут измениться). В разделе Privacy панели управления можно отключать всё вообще (не нашёл повода оставить что-то включённым), все лишние приложения, идущие в составе системы можно смело удалить (благо, их немного). Никто не обязывает что-то хранить в OneDrive, в общем и целом никто не заставляет делать что-то лишнее, и всё было бы хорошо, не было бы никакого шума, если бы не. Если бы в Microsoft чётче разделяли версии ОС, по целевой аудитории, например, и в соответствии с чётким позиционированием всего лишь выставляли настройки подсистемы Privacy по умолчанию. Даже этого уже хватило бы.

Например, вполне логичная подверсия Windows 10 для гибридов планшета и ноутбука с малым экраном (из-за размеров экрана никак не попадающих в категорию рабочих станций) могла бы быть со включённым по умолчанию открытым «идентификатором рекламополучателя», это никак не вредит, а только помогает (хотя бы потому, что целевая реклама не такая раздражающая). Но зачем по умолчанию включать эту же функцию пользователю большой CAD-системы, с его двумя-тремя огромными мониторами, гудящим мощным ящиком системного блока и распорядком дня, фактически исключающим «потребление контента» (просто потому, что стоимость всего этого удовольствия чаще всего пятизначная, и слово ROI никто не отменял)? Маловероятно, что выставленные по умолчанию сохранения всех документов в каталоги, синхронизирующиеся с OneDrive, соответствует принятым в конкретной рабочей среде (организации) правилам. Зачем вообще Location стационарному компьютеру?

Этих «зачем», связанных просто с теми установками Privacy, которые выставлены по умолчанию, вполне достаточно для истерик слабонервных пользователей. Понятно, что в серьёзных корпоративных системах всё это вообще не вопрос – в них есть внутренние политики и системные администраторы, которые эти политики исполняют. Но Windows давно и далеко не только корпоративная ОС, и явно недостаточная детализация вариантов системы и соответствие ей настроек Privacy – область, в которой Microsoft есть что совершенствовать.

Отдельная проблема – степень интеграции с сервисами. Понятно, что Microsoft, с её инсталляционной базой Windows, не дают покоя лавры той же Google. Понятно, что корпорация добивается такой же интеграции своей ОС со своими сервисами, какая есть в полной оригинальной Android со всеми приложениями Google. Вопрос здесь только один – рационально ли это во всех вариантах Windows?

Впрочем, на эти вопросы ответит время и пользовательская аудитория. Пока она откликнулась почти полным безразличием к «ужасам privacy», если судить по скорости роста числа инсталляций. И это тоже не очень хорошо – кто знает, какими очередными брешами в громадной системе с такой продолжительной эволюцией могут воспользоваться разработчики зловредного кода.

В общем, подводя итоги. Ничего кошмарного не произошло. Истерики вызваны перенесением предупреждений о политиках privacy из конкретных приложений, реализующих поддержку сервисов, в единый, «общесистемный» список. Это без сомнения странный шаг. С другой стороны, лавина инсталляций Windows 10 как бы говорит о том, что истерички большой погоды не делают (и очень многих пользователей в 2015 году ужасами нарушений privacy не пронять).  С третьей стороны, «сервисная избыточность» системы, например, в версии Professional, кажется действительно избыточной (надеюсь, не только мне). В остальном ничего не случилось, и можно не переживать, куда большую угрозу приватности несут сами пользователи и добрые старые методы социальной инженерии.

Всё это рационально учесть и создателям Linux-дистрибутивов, в которых со временем сервис-ориентированная модель Google-Android неизбежно даст свои ростки.

Теперь польза.

Если вы работаете и в Windows, и в Linux, и привыкли к утилитарному набору из Unix-мира, вы знаете что такое Cygwin, например. А также знаете, что он – в каком-то смысле (и не одном) монстр. Так что вот сравнительно новая и совсем лёгкая альтернатива – gow. Почти всё, что надо для привычных пальцам методов избавления от повседневной рутины в этом наборе есть. Инсталлятор крохотный, делает именно то, что должен (с одним «но», до которого поверхностно, из основной «документации», не добраться – в каталоге инсталляции программы надо «руками» создать пустой подкаталог etc/, чтобы нормально работала оболочка bash). Очень полезный набор, отлично работает и не создаёт вообще никаких проблем.

Откланиваюсь.

Windows 10 – первые впечатления

Итак, за первые 24 часа доступности Windows 10, по данным из Microsoft пользователи осуществили более 14 миллионов инсталляций. Что, безусловно, цифра. Этот штурм (и шторм для самой Microsoft) подкреплён географическим расширением доступности обновления – теперь речь идёт о 190 странах мира.

Сама по себе процедура «атаки десяткой» - колоссальный проект, и очень жаль, что в Microsoft не уделяют достойного внимания механике, реализующей массовое обновление такой немаленькой системы. Кое-что об устройстве этого механизма известно, и оно, как ни странно, касается конечных пользователей системы, особенно тех, кто по каким-то причинам чувствителен к объёмам трафика. Механизм распространения обновлений Windows 10 может работать по схожему с torrent-сетями принципу, с использованием машин конечных пользователей в качестве источников фрагментов обновлений. Так что, забегая далеко вперёд, – если у вас не безлимитный скоростной доступ, вам логично сразу отключить «торрентподобное» в управлении обновлениями (снимков экранов не будет, обойдёмся без лишних «весёлых картинок»). Для этого надо воспользоваться основным поиском в меню системы и найти раздел Settings (новой панели управления)  «check for updates», в нём выбрать «advanced options», в них – нижний пункт (как поставляются апдейты), и, наконец, или выключить «доставку» (правильнее всё же – участие) из более чем одного места, или ограничить список этих «более чем одних мест» своей локальной сетью.

Вернёмся к самому началу. Боюсь, при обновлении ОС многие столкнутся с проблемой, которая вызывала у меня лично раздражение алогичностью и почти полной недокументированностью. Я обновлял Windows 8.1 с помощью простого и совершенно легального приёма (речь идёт именно об обновлении, а не установке с «чистого листа») – зарезервировал обновление той самой «загадочной» программкой, иконка которой «болталась» в трее, скачал Microsoft Media Creation Tool, выбрал «обновить этот компьютер», и… И вот тут получилось странное.

Всё прекрасно сработало, за исключением одного «тонкого» нюанса – я использую английскую версию ОС (старая привычка, не люблю локализованных программ), а механизм обновления упорно навязывал мне полностью украиноязычную систему, ещё и непонятно какую (но не Pro точно). Кроме того, различие в языковой версии привело к невозможности выбрать требуемый мне режим обновления (с сохранением настроек и всех данных).

Причиной этого является довольно странное высокоуровневое проектное решение – вместо очевидного определения типа обновляемой системы и набора языковых пакетов (SLP, Single Language Pack), в Microsoft решили проверять… системную локаль для не-Unicode программ. А она у меня была выставлена украинской (иначе слишком много старых, но хороших программ, показывают незабываемые и милые сердцу «крокозябры»). Возвращение её в «родное» для системы состояние (эта процедура требует перезагрузки) проблему полностью устранило – обновляемая ОС была правильно распознана и было загружено нужное обновление.

Очень странное решение, конечно. Впрочем, вы уже об этом нюансе знаете, посему это уже не проблема. Об инсталляции обновления лишнего не скажу – всё происходит само собой и в моём случае (немолодая, но достаточно мощная машина) вообще без каких-то проблем.

Во всём последующем я буду крайне субъективен, и постараюсь обойтись минимумом технических деталей. В конце концов, ОС семейства Windows давно исключительно важная «подставка под необходимые и незаменимые приложения», и всё, что он неё требуется – стабильность работы и условная «беспроблемность». По большому счёту, уровень «удобств» в системе давно достиг более чем пристойного, и слишком много говорить о них смысла нет.

По моему скромному мнению, в повседневной работе с системой радикально ничего не изменилось. И это очень хорошо. Кое-что нелепое для десктопов и всего, что с нетактильным экраном, ушло в прошлое. Это тоже хорошо. Видимая пользовательским взглядом «реактивность» системы явно улучшилась – это просто очень хорошо. Особенно хорошо это заметно при пользовании штатным виртуальным десктопом – всё происходит очень быстро и, как бы это сказать, одновременно неутомляюще «плавно», без дёрганий, рывков и прочего раздражающего.

С приложениями также проблем не наблюдается – всё инсталлируется и работает как должно (разве что в редких случаях приложения при инсталляции «ругаются» на неизвестную версию системы, но мягко, в форме предупреждения).

Злополучное меню Start, претерпевшее очередную мучительную трансформацию, на деле ничего выдающегося не предлагает. Может, кому-то пригодятся большие тайлы метро-приложений, я их просто сразу убрал. Меню как меню. С сортировкой приложений по первой букве (что удобно), с настраиваемой областью быстрого запуска с большими иконками-тайлами, и с одним весьма полезным нюансом – теперь можно деинсталлировать приложения прямо из него, не путешествуя в панель управления. Если кого оно не устраивает, сторонние разработчики уже подсуетились и предлагают как копеечные коммерческие заменители «на привычное», так и полностью бесплатные. Могу только сказать, что после Windows 8.1 замена меню Start мне не понадобилась (чего не было с Windows 8 и 8.1).

Кое-какой шум уже возник из-за эклектики в интерфейсах системы и фиксированного оформления обрамления окон. Затрудняюсь что-то сказать по этому поводу. Вроде всё это есть, но оно настолько незначимо, что нет смысла тратить на него своё время и время читателя. Я просто не обращаю на это внимания даже после ознакомления с весьма эмоциональными текстами, написанными явно нервными людьми. И не собираюсь что-то в системе изменять (например, от фиксированного цвета фона верхней рамки окна можно избавиться с помощью текстового редактора за несколько минут). Это не от какой-то сверхлояльности, а потому что система действительно и вообще всем этим не раздражает – странный эффект, и явно удача разработчиков Microsoft.

Странности Windows 10 сконцентрированы в «неповседневном» – в панели управления. Впрочем, этого следовало ожидать – после начатой в Windows 8.1 миграции очень большого объединённого этим названием набора подсистем ОС в «новый дизайн» образовался забавный то дублирующийся, то упрятанный бог весть куда набор сущностей. Есть то, что называется Settings и вынесено в меню Start, и есть Control Panel, до которой удобнее всего «добираться» из дополнительного меню, вызываемого шорткатом Win+X. Что-то можно сделать в одной подсистеме, что-то – в другой. Странно, но не до истерик. Да и к этим меню в Windows обращаешься далеко не так часто. В общем, и с этим я сжился очень быстро, несмотря на первые недоумения.

Что ещё можно и даже нужно сказать? На второй день использования системы факт обновления перестаёшь замечать. Это очень хорошо. В системе явно существенно «пролечены» механизмы управления памятью (проработавший более суток Chrome c двадцатью открытыми табами, при нескольких запущенных действительно больших приложениях «съели» 4,4GB ОЗУ, и график занятой памяти остаётся прямой линией) и кэширования файловой системы, ощутимо улучшена «реактивность» пользовательских интерфейсов, добавлены всякие мелкие полезные детали (например, управление автозапуском приложений из менеджера задач или просто горизонтальный регулятор громкости). И, пока, похоже, ничего не сломано.

Так как я предпочитаю не разговаривать с машинами, ничего не могу сказать о Cortana, у меня нет Xbox, посему к ставшей штатной подсистеме я равнодушен, 3D-принтер в хозяйстве появится точно не скоро, поэтому остаётся вынести лаконичный вердикт – система приятная в использовании, со своими мелкими странностями и удобствами, хорошо работает, делает что должна делать, на второй день активной работы с ней о том, что это новая Windows 10, просто забываешь.

Какие-то мелкие сугубо «для удобства» приложения, ранее бывшие полезными, стали не нужны (обустраивая систему, вообще ничего такого не устанавливал, и, явно, уже не буду).

Не сомневаюсь, что Microsoft именно этого и добивались – все разработчики больших систем с длительным эволюционным развитием подчинены этому простому, но очень важному критерию.

Больше рассказать нечего.

Откланиваюсь.

Что интересует венчурных капиталистов (версия 2015)?

Начну без отступлений – в первом полугодии 2015 венчурные капиталисты инвестировали более $57 миллиардов (согласно данных Mattermark), и эта цифра впервые превысила рекордные показатели двухтысячного года.

В отдельную категорию венчурных инвестиций следует выделить то, что принято неофициально называть с приставкой «мега-» - более $40 миллионов, это не из прихоти «экспертов», а из устоявшейся традиции снижения рисков, которая устанавливала верхний порог приватных инвестиций на уровне, меньшем приведенной цифры (что означает – для получения объёмов финансирования больше $40 миллионов, стартап должен был фактически превратиться в акционерное общество и задействовать механизм IPO).

Теперь венчурные капиталисты преодолели этот барьер опасений, и мегаинвестиции стали значимым механизмом (почему и в каких областях – об этом позже).

Мы не будем говорить об абсолютных цифрах, а попытаемся взглянуть на доли общего объема и динамику венчурных инвестиций, потому что эти данные куда лучше характеризуют поведение инвесторов.

Кроме того, такая картина позволяет рассмотреть области, в которых сейчас происходит самый настоящий hype.

Итак, начнём с лидера. Электронная коммерция. Более 15% всех ранних рискованных инвестиций (seed dollars, «посевы» в сомнительные почвы «взойдёт – не взойдёт», на этапе, когда об «урожае» говорить очень рано). Но при этом доля инвестиций в расширение уже «плодоносящих» бизнесов (growth investments) в сегменте электронной коммерции ощутимо скромнее – 11%. Разница в 4% (не забываем, что речь идёт о $57 миллиардах) – огромная цифра по меркам стартапов, и инвесторы на такой риск согласны, вопреки утверждениям (а они встречаются подозрительно часто), что на рынке электронной коммерции застой и нынешние лидеры настолько сильны и даже всесильны, что лучше в эту область и не заглядывать. В принципе, стратегия инвесторов понятна – если в этом сегменте что-то «всходит», это что-то обеспечивает очень высокую скорость ROI.

Если заглянуть в данные о мегаинвестициях, картина уточнится и никаких противоречий мы не увидим. 49% мегаинвестиций – это всё, что работает на потребительский рынок (где и находится «e-commerce»). Анализ инвестиций здесь сложен не столько потому что ранние рискованные мегаинвестиции – огромная редкость, это область финансирования расширений бизнесов, сколько из-за композитного характера новых аппетитных бизнесов и невозможности четкой их категоризации. Например, «впитавший» более $6 миллиардов инвестиций Uber – как классифицировать эту компанию? Как транспортную? Но она не совсем транспортная. Логистическую (есть и такие попытки)? IT? Электронной коммерции c сопутствующими сервисами?

Второе место по скорости роста инвестиций занимает сектор «всё для заботы о здоровье». Здесь картина противоположна наблюдаемому в электронной коммерции – ранние рискованные инвестиции (14%) менее привлекательны, чем инвестиции в работающие бизнесы (15%), и разница в объёмах не такая большая (порядка 1%). Если хорошо подумать, основу этого сектора формируют всевозможные тренажеры, «шагомеры 2.0», сервисы и прочее, что не требует очень исключительно строгих и долгих механизмов сертификации из сектора классического здравоохранения.

Третье место – программное обеспечение корпоративного класса (enterprise software). Объемы инвестиций в расширения бизнесов (почти 14%) ощутимо (на 2%+) выше «посевных». Область вполне понятная, «моторами» в ней являются нацеленные на решение «внезапно» обострившихся проблем сектора – повышение удобства развёртывания (deployment) приложений в масштабных кластерных инсталляциях, специфические базы данных (например, для хранения временных рядов), высокоуровневые средства разработки etc.

Начиная с претендента на четвёртое место, всё становится очень сложным. Потому что чётких лидеров больше нет.

Позволю себе поступить иначе, ограничившись первой тройкой областей-лидеров, а дальше сформирую короткие списки областей, где инвесторы не боятся рисковать с «посевами», и где предпочитают инвестиции в расширение бизнесов.

Самая большая «посевная» идёт в четырёх сектора – образование, маркетинг (!), аналитика, аппаратные средства (!). Здесь наблюдается значительное (в разы или на значимые проценты) превышение рискованных инвестиций над расширением бизнесов. Восклицательные знаки поставлены не случайно. Например, инвестиции в аппаратные средства совсем недавно считались далеко не очень привлекательными (любое материальное производство – это дополнительные риски, а сектор hardware сложен ещё и многоуровневыми неприятными зависимостями от системообразующих компаний, располагающих, например, полупроводниковыми фабами). Маркетинг, напротив, всегда был сверхпривлекательной областью, и, как будто, давно прошедшей область насыщения и даже пресыщения. Увы, реальная картина все эти соображения разрушает. Инвесторы совершенно не боятся рисковать в этих областях, а большая разница между объёмами «посевов» и инвестиций в развитие косвенно говорит нам, что эта картина изменяться не будет – чтобы увеличить объёмы инвестиций в работающие бизнесы, надо эти бизнесы создать.

И, конечно, здесь отражены взаимосвязи между сегментами. Маркетинг-аналитика-hardware – это без сомнения сильно связано с сектором «всё для заботы о здоровье», например. Аналитика – фрагмент корпоративного ПО и электронной коммерции. И т.д.

Полной противоположностью предыдущему является область, объединяющая финансовый сектор, социальные сети, фармакологию и биотехнологии. Здесь инвесторы осторожны и предпочитают размещать деньги в уже работающих бизнесах. Причём это предпочтение также очень ощутимое (в секторе фармакологии – в разы). Тоже ничего загадочного в этой картине нет. Например, фармакология – исключительно затратное на этапе развёртывания, очень долгое на этапе разработок, крайне сложное на этапе клинических испытаний etc занятие. В таких сегментах материального производства инвесторы всегда крайне осторожны.

Социальные сети же. Ими все «сыты по горло», и каждой новой всё труднее находить своё место, независимо от масштабов стоящей за проектом машины (достаточно вспомнить, насколько удалась so.cl Microsoft, несмотря на колоссальные ресурсы).

И, наконец, «отдельно стоящее дерево». Уникальный сектор, с почти полным равенством рискованных и относительно безопасных инвестиций. Разработка ПО. Здесь есть незначительное превышение seed dollars, но на доли процента, совершенно не существенное для целостности картины. А вот абсолютная доля во всём объёме венчурных инвестиций для этого сектора почти в 2 раза меньше, чем у каждого из тройки лидеров. В общем, это уже по-своему уникальная стабильная нематериальная индустрия.

 

Это была укрупнённая картина. Теперь посмотрим на скорости роста объёмов рискованных инвестиций, которые помогут увидеть, грубо говоря, области поиска инноваций.

Первое место – криптовалюта. 151% роста объёмов инвестиций (инвестиции в классические банки выросли на 65%). Если эта область ещё как-то понятна (несмотря на все сложности, потенциальные и уже существующие), то объяснить 150% взрыв в сегменте «photo sharing» мне, например, трудно.

Казалось бы, уже столько всякого сделано, что многие популярные несколько лет назад «фотосвалки» уходят в небытие. Короче, легион пользователей смартфонов с палками для селфи – это страшная сила и реальная привлекательная область для стартапов, ищущих себе место под солнцем. Надо же.

На 145% взорвались инвестиции в физические устройства хранения информации. Ну, этого как раз следовало ожидать. А вот 141% роста в космические технологии – это признак совершенно нового мира, в котором мы уже живём.

Скучные и очевидные взрывы – транспорт, 133% (Uber и всё юберподобное, электро- мотоциклы, мопеды, велосипеды etc), туризм и всё с ним связанное (особенно аренда жилья для туристов), кредитование.

Менее 100% роста – это уже не взрывы. Вопреки страшному шуму, инвестиции в технологии дронов выросли всего на 63% (сравните с 97% роста инвестиций в ресторанные бизнесы).

Вот такая картина сложилась.

Надеюсь, кому-то это пригодится.

Откланиваюсь.

В поисках нового

Попробую сложить в нечто целое рассмотренное за неделю. Она была небогата на новости (к выходным, правда, как будто прорвало что-то в rss-фидах). На деле это будет не в масштабе недельного временного промежутка, просто так сложилась цепочка событий, и очень разные явления попали в поле зрения одновременно.

Итак, начнём с самого неприятного. Microsoft фактически списала в убытки $7,6 млрд и реструктуризирует поглощённую часть Nokia, что влечёт за собой увольнение 7800 сотрудников. В масштабах Microsoft это не «трагедия» вовсе, но как явление этот факт что-то должен означать. Что именно, - уже не совсем явно, но и в той же степени не совсем понятно озвучено в письме Сатьи Наделлы: корпорация сосредотачивается на трёх потребительских сегментах, в списке которых значатся сервисы для потребителей смартфонов и передовые устройства, отвечающие требованиям «фанатов Windows».

Неопределённость этих двух текстов уже породила множество интерпретаций, не буду даже пытаться усложнить картину. Факт остаётся фактом – «смартфонного бизнеса» Microsoft в том виде, каким он был, больше не будет. А это может означать только одно – на рынке смартфонов даже потенциал связки «Microsoft-Nokia» уже ничего сказать не может. Здесь сказано практически всё.

«Уже сказанное» будет эволюционно дорабатываться. И отрыв в «уже сказанном» очень велик. По сути, остаются мелкие улучшения пользовательской логики в интерфейсах, из серьёзного – некогда непонятно почему и зачем обласканная «однозадачность» будет заменяться реально нужной полноценной многозадачностью. Больше в «лексиконе смартфонов» невысказанных слов не осталось (это видно невооружённым глазом по эволюции знаменитого iPhone, каждой новой версией оставляющего всё меньше новых значимых слов даже самым ярым адептам).

А после появления первых ласточек «виртуализации в виртуализации», реального запуска ОС Windows 7 в среде ОС Android, причём осуществлённой не корпоративными ресурсами, а тем самым «фанатом», всё становится ещё сложнее.

Смартфоны теперь не столько «устройства», сколько уже mature (не буду переводить) мир полноценных персональных вычислителей. Чудовищно банальное откровение, но при всей его банальности оно уже «входит в клинч» с идеями «старателей нового Клондайка IoT», об этом позже.

В общем, реально новых идей, обещающих цунами на рынке, в устоявшемся мире смартфонов нет. И это факт. Потому и «похороненный» Google Glass на деле оказался живее всех живых, и уже появилась потенциально очень интересная Enterprise-версия устройства (ещё и в альянсе с Intel). Потому и сама Microsoft инвестирует пусть скромные пол миллиона, но в фактически академическую программу поиска применений технологии HoloLens, потому и в корпорации ведутся работы по возвращению изрядного забытого «светового пера» в совершенно новом исполнении в мир массового потребительского компьютинга.

Все заняты поисками новых, ещё не достигших состояния maturity, идей.

Очень высокие темпы проектных процессов, огромный накопленный опыт, совершенство и доступность технологий и инструментария, всё это сильно сокращает «свежесть» идей и их овеществлений на рынке, а патентная система оказалась далеко не такой «страшной» и «эффективной» в смысле «блокировки» конкурентов (впрочем, она и совершенно не для того создавалась).

Скорость эволюции даже очень больших проектов (например, ОС Android) настолько высока, что ввязаться в конкуренцию с опозданием и желанием просто «сделать лучше» - гарантированный крах начинания (то же самое было и с ОС Windows в своё время и в её сегменте).

На фоне этих следствий «технологического пресыщения» очень интересные искания британцев (по ссылке - статья о проекте BBC) оказались, увы, в деталях не рассмотренными. А жаль, потому что речь идёт о действительно большом проекте с серьёзными целями. Чуть более пристальное рассмотрение того, что предложил британский медиа-монстр BBC потребовало отдельной статьи.

Ну, и сугубо для иллюстрации сложности восприятия настоящей новизны уже сейчас, в 2015 году, приведу один маленький пример.

Буквально на днях Texas Instruments сделал нечто впервые в истории полупроводниковой индустрии. То есть, вообще впервые в истории. Если это нечто описать формально – «первая в индустрии микросхема, объединяющая прецизионный токооизмерительный резистор и операционный усилитель, позволяющая измерять токи до 15 А и стоящая $1,4 в партиях», принципиальная новизна останется вне поля зрения для большинства неспециалистов. А, между тем, это действительно очень серьёзное технологическое достижение, никому до TI такое до сих пор не удавалось.

Этот пример к тому, что сейчас начинается период «заметной только специалистам новизны», которая никак не оживляет потребительские рынки.

Да, замечательная микросхема от TI позволит множество устройств сделать компактнее, надёжнее, доступнее, но всё это уже потребителя «не берёт». Потому и нужны «новые люди», которым это недостающее создавать.

Простое и полезное, синергетика, теги и Evernote

Evernote – один из основных моих «пользовательских инструментов». Так сложилось. Замены этому сервису (и сопутствующим программам) не нахожу, да и нет смысла искать, потому что за долгое время пользования «оброс» очень большой информационной базой, с которой расстаться даже не жалко, а почти невозможно. Всё это уже настолько естественно, что если бы не «внешние раздражители» (редко появляющиеся тематические статьи), и не написал бы всего этого. 

Главное в Evernote, конечно, система иерархических тегов в сочетании с «записными книжками» (notebooks). Без неё не то, чтобы очень плохо, но трудно (тэги подвергались, подвергаются и будут подвергаться критике, но лучше пока никто ничего не придумал, но и о критике пару слов я скажу чуть позже). Одно в этом сочетании не очень хорошо – оно настолько неявное, что мало кто говорит о вариантах его эффективного использования. Попробую объяснить на простых примерах, что получилось из этого у меня.

Начну с «высокоуровневой архитектуры», которая и создаёт «синергетический эффект». Долгий опыт и выработанные до автоматизма привычки позволяет чётко сформулировать некоторые не совсем очевидные цепочки использования распространённых сервисов и инструментов (и я бы этого не писал, если бы не знал о результирующих «синергетических эффектах»).

Web-источники. Я почти не пользуюсь браузером для чтения чего-либо, потому что web-2.0+ и очень много информационного шума, устают глаза. «Выловленное» разными новостными и тематическими каналами заинтересовавшее «на первый взгляд» сразу отправляется в Pocket. При этом оно автоматически «очищается» и становится читабельным. Прочтённое в Pocket и достойное хранения затем отправляется в Evernote (целиком или фрагментами). В фазе, скрывающей за словом «отправляется», обычно нужен браузер, причём «большого компьютера», потому что так намного удобнее (больше возможностей точно выбрать что нужно, сохранить форматирование оригинала если оно значимо, сохранить MathML, например, если в оригинале есть формулы, etc). Если часть этой цепочки «сработала» на мобильном устройстве (планшет – почти идеальное устройство для чтения новостей и отложенного-отфильтрованного в Pocket), ссылка на оригинал «перебрасывается» между устройствами с помощью Pushbullet. Есть дополнительный плюс в использовании Pushbullet, несколько раз выручавший в случаях, когда «сгоряча» на мобильном устройстве удаляешь что-то вроде ненужное и неинтересное из Pocket, а потом «внезапно» оно оказывается нужным и смутно помнишь – что-то такое было, но где и что – уже  не найти. Это (не как функция сервиса, а как дополнительное важное удобство) «открылось» совершенно случайно, потом стало привычкой. Сервис хранит историю всех действий c ним, что большой плюс для всей короткой цепочки.

Бумажные источники. Их никто не отменял. Моя «технологическая» цепочка - сканер (программный, для ОС Android), при необходимости и возможности – программа распознавания текста (в Evernote есть такая функциональность, но мне привычнее и удобнее пользоваться отдельной независимой программой), Evernote. Отдельный вид бумажных источников – обычный блокнот и карандаш. Заметки, наброски, эскизы, для этого до сих пор ничего лучше не придумали. С некоторых пор, потеряв пару блокнотов, начал сохранять и «выжимки сканированного рукописного», и это много раз оказалось не лишним (особенно если вы привыкли к «блок-схемам» и диаграммам для упорядочивания мыслей, в блокноте они рисуются за пару минут, а в том же Visio – пол дня). Кстати, как бы это ни звучало странно, но именно для работы с бумажными источниками мобильные терминалы (смартфон и планшет) стали действительно незаменимыми устройствами.

Все эти две цепочки на деле являются «потребительскими», потому что относятся к потреблению информации. Их роль существенно изменяется за счёт процедуры упорядочивания накопленного с помощью уже упомянутых тегов и notebooks (чтобы не путать с бумажными блокнотами, буду употреблять без перевода).

Итак, в Evernote есть двухуровневая иерархия «записных книжек» (notebooks), которые могут объединяться в «стеки» (stack в терминах Evernote – набор «записных книжек»). Есть ограничения количества notebooks, но только для бесплатных аккаунтов (я использую премиум, сугубо потому, что мне удобно и часто нужно иметь оффлайн-доступ к базе Evernote на мобильных устройствах, посему эти ограничения меня не тревожат) – их может быть максимум 250. Это очень немало на деле и при подходе «складываем тематическое в кучки» фактически ограничением не является (разве что для настоящих фанатиков). Но строго до тех пор, пока Evernote используется сугубо как «хранилище всякого полезного».

И в Evernote есть иерархические тэги, не «облако», а именно иерархия. С привычными механизмами визуализации иерархии (а не странным и абсолютно неинформативным отображением «облака») и поиска в ней.

Я предпочитаю объединять notebooks с иерархией тегов. Не буду писать много абстрактного (кто любит такое – может углубиться в тематический сайт «секретного оружия»), поясню на «живом» примере разработки «не таких как у всех» клиента и сервера MQTT. Раз это проект, то все проекты находятся в notebook Projects, и для них придумывается начальная иерархия тэгов (это всё совершенно свободно, так что можно как угодно и как нравится, лишь бы потом, увидев, вспомнить что оно обозначает):

.Prj
      .MQTT
              .Client
              .Server

.Prj – единый для всех проектов тэг, дальше всё очевидно.
Точка – не обязательный символ, но она де-факто стандартный способ описания иерархий в языках программирования (и это оказалось не только мне привычным).

Так как синтаксис тэгов в Everonote щадящий (например, допускаются пробелы, в этом случае текст тэга берётся в двойные кавычки), разумно сразу вооружиться общепринятыми префиксами или постфиксами (как кому нравится, всё это абсолютно свободно), например, «коммерческое at», «@», отлично подходит для тэгов, обозначающих источник информации или место, «#» или «№» - признак нумерации, и так далее. Здесь важно понимать одно существенное свойство механизмов поиска Evernote – любые символы, которые не-буквы и не-цифры, кроме символа подчёркивания, игнорируются. Так что эти специфические префиксы или постфиксы исключаются механизмами индексирования сервиса и вам не надо помнить, как именно задан тэг, дополнительные символы нужны только для удобства визуальной навигации по иерархии тэгов.

Реализация протокола – это работа со спецификациями и стандартами. Которые написаны как будто специально для усложнения задачи и всегда (без исключений) требуют сначала изучения, реструктуризации (эта процедура у каждого своя, навыки, привычки и логика реализации у всех разные). Поэтому появляется «под-тэги» @Standard и .MQTT#311 (действующая версия стандарта). По мере изучения стандарта выявляются структурные, логические и функциональные фрагменты описания, и им в соответствие ставятся свои тэги (например, .Packet – для форматов пакетов, .PUBLISH – для конкретного пакета, и т.д.). Итогом изучения стандарта становится упорядоченное множество фрагментов «сырого документа» и, что не странно, много сканированных блокнотных заметок (потому что это удобно). По ходу дела иерархия тэгов «обрастает» всевозможным дополнительным, от высокоуровневых идей (они приходят в головы разным людям и иногда представляют ценность) до фрагментов кода разных открытых конкурирующих реализаций. А на этапе собственно реализации появляются тэги с именами файлов и даже с номерами строк кода, реализующими фрагменты стандарта. И ко всему этому как-то сами по себе «прикрепляются» механизмы планирования (напоминаний etc) Evernote. В итоге получается нечто среднее между «блокнотом проектировщика», «динамической документацией» и инструментом планирования, и экспорт её в один файл, например, pdf (что позволяет сервис), даёт очень ценный сопровождающий код документ.

Это всё только кажется «громоздким», на деле становится совершенно автоматическими действиями, практически не требующими дополнительного времени.

Точно так же я веду коллекции цитат из прочитанных книг (совершенно не обязательная активность, но доставляет удовольствие), даже, извините, веду персональную кулинарную книгу (нравится готовить), и вообще всё, включая планирование поездок.

Иерархия тэгов разрастается, но особых сложностей это не вызывает, напротив, постоянное выдумывание новых тэгов для иерархии создаёт очень забавный эффект и даёт повод иногда внимательно присматриваться к разросшемуся дереву – интересные связи открываются, о которых даже не подозревал в момент помещения чего-то в Evernote (память не безграничная, увы). Критики системы тэгов почему-то никогда не говорят об этом, как и об удобстве визуализации иерархии (а не облака) тэгов, а это очень интересная активность при разросшейся информационной базе и хорошей степени детализации (она формируется при постоянной работе).

Например, в самом простом случае по тэгу .Packet было обнаружено сходство пакетов нескольких протоколов из совершенно разных областей (а это уже позволило существенно сократить затраты). Да, можно было бы покопошиться в pdf-файлах описаний, повспоминать, но тут совсем другой эффект, потому что короткие описания всех изученных когда-то пакетов оказались сразу перед глазами (на деле детализация куда глубже, до полей пакетов, что намного интереснее).

При решении специфических задач (например, в embedded-программировании) это стало по-настоящему незаменимым – здесь коллекция необходимых фрагментов из документации (например, инициализации узлов микроконтроллеров) за счёт «тематической обозримости» однотипного мало что позволяет существенно сократить затраты времени, но и «рассмотреть» схожесть реализаций узлов в микросхемах разных производителей (что не просто забавно, а тоже сильно сокращает время). А в сочетании с привязкой к файлам с исходными текстами из этого получается разрастающаяся справочная база повторно используемого кода.

Предмет отдельного обсуждения – интеграция всего вышесказанного с Github, например. Это уже слишком специфическое, но при малейшем желании реализуется с помощью дополнительных сервисов (IFTTT, Todoist) буквально за минуты, а при минимальном воображении база фрагментов кода (snippets) размещается в Github, а в Evernote хранятся только ссылки с описаниями.

Думаю, кому-нибудь всё это пригодится, несмотря на «очевидность».

Откланиваюсь.

Open Container Project

У этого события сразу несколько аспектов. И есть «почти незаметный» (точнее, деликатно не замечаемый), но он такой бальзам на раны поклонникам Linux (и прочих *nix клонов), что в формате блога, позволяющем обойтись без лишней деликатности, с него и начну. По-моему, такую картину в сочетании со словами «под эгидой Linux Foundation» я вижу первый раз:
 
Open Container Project

Целевое объединение А-брендов под эгидой Linux Foundation должно основываться на чём-то действительно важном и, естественно, измеримом в больших деньгах. Это что-то не появилось «буквально вчера» и даже не является «чем-то новым» вообще. Больше того, оно весьма «старое» (по меркам индустрии). И вот после многих лет существования этого «чего-то» эволюция довела до некоторой степени ясности реальные потребности, возможности, ограничения контейнерных технологий и необходимость координации усилий в их стандартизации.

Начнём с небольшой предыстории. «Легковесные контейнеры» являются (без всяких «по большому счету») полной противоположностью виртуальным машинам. И практически во всём.

Виртуальные машины предусматривают в идеале создание сквозной абстракции уровня аппаратных средств, над которой надстраивается весь традиционный стек системного и прикладного ПО с вытекающими особенностями на прикладном уровне, например.

Контейнеры же (в современной трактовке) являются абстракцией уровня «программного компонента и его зависимостей как единого повторно используемого целого», практически всегда – надсистемного уровня (userspace).

Есть много рассуждений о безопасности этих двух противоположных абстракций, но все они (теперь уже по большому счёту) также абстрактны – никто не отменял потенциальной уязвимости самих виртуальных машин (или гипервизоров) и никто пока не запретил «ломать» любые самые хитрые способы защиты, включая и существующие между разными уровнями абстракции (напротив, фокусы с DRAM высокой ёмкости, позволяющие из прикладного кода «пробивать» все механизмы защиты памяти, включая аппаратные, показали, что потенциала для любителей «ломать, а не строить» более чем достаточно). Так что вообще не будем говорить о безопасности – это комплекс действий, средств, инфраструктурных элементов, и сравнивать отдельные фрагменты по такому критерию не кажется разумным (хотя это в странной декларативной форме пытаются делать очень многие).

Лежащие в основе «контейнерной дистрибуции и развёртывания ПО» механизмы очень не новы и, справедливости ради, далеко не «из мира Linux». В ОС FreeBSD jails (почти полноценные виртуальные окружения на уровне userspace, с собственными аккаунтами суперпользователя, пространствами имён файлов, процессами, разграничением безопасности и правами доступа, но без возможности выбора версии ядра ОС для каждого jail) появились ещё в 2000 году. Затем аналогичный механизм zones был реализован в ОС Solaris (в бета-версии в 2004, полноценный релиз – в 2005, в версии Solaris 10). В 2008 году аналог появился и в Linux – LxC (Linux Containers). Этот исторический экскурс сделан сугубо для иллюстрации факта продолжительности (по меркам IT) эволюционного развития контейнерных технологий. Потому что взрыв популярности той же компании Docker и её одноимённого продукта основан именно на возможностях LxC, например (docker – удобная надстройка над LxC). За прошедшие два года на контейнерные технологии вынужденно обратила внимание и Microsoft, а с середины апреля этого года docker контейнеры стали доступны пользователям Windows в «облаке» Azure (разработка Windows-версии docker велась совместными усилиями Microsoft и Docker).

Параллельно с Docker и неисчислимыми «самодельными» контейнерами развивались и всевозможные механизмы, по сути, аналогичного назначения (вплоть до специальных «облачных» дистрибутивов ОС или даже «контейнеров без ОС», было и есть и такое).

В итоге возникшее «разнообразие» в реальной эксплуатации больших программных инсталляций оказалось далеко не достоинством (несмотря на утверждения сторонников «свободы выбора из разнообразия»). Как ни странно, но эта «не совсем хорошесть» уже измерима в реальных деньгах инвесторов.

Суммарные инвестиции в несовместимые контейнерные системы исчислялись сотнями миллионов долларов. И не то, чтобы вели к осмысленной конкуренции (хотя бы потому, что фундаментальные механизмы работы контейнерных систем являются частью проектных процессов ядер конкретных ОС, а не userspace уровня, на котором «работают» контейнеры).

Возникла ситуация, при которой дальнейшая трата денег стала бессмысленной. И её пытаются разрешить совместными усилиями.
Open Container Project и есть способ разрешения возникшей ситуации.

Его продукт – вовсе не что-то радикальное новое программное (после стольких лет развития что-то новое придумать и реализовать трудно). Но действительно новое в смысле взаимодействия Linux Foundation и А-брендов IT-индустрии. Новое – это попытка совместного наведения порядка. Она начинается со спецификаций «стандартных контейнеров», устанавливающих единые:

  • форматы файлов контейнеров,
  • наборы операций с контейнерами,
  • требования к окружению.

Фундаментальными критериями при проектировании этого фактически стандарта являются полная независимость его от содержимого контейнеров и от инфраструктуры, обеспечивающей все операции с котейнерами.

Кстати, маленькое забавное отступление – мы уже настолько на слуху у всего мира, что описание независимости от инфраструктуры (Infrastructure-agnostic) выглядит дословно так:

A shipping container can be packed in a factory in Ukraine, transported by truck to the nearest routing center, stacked onto a train, loaded into a German boat by an Australian-built crane, stored in a warehouse at a US facility, etc. Similarly, a standard container can be bundled on my laptop, uploaded to S3, downloaded, run and snapshotted by a build server at Equinix in Virginia, uploaded to 10 staging servers in a home-made Openstack cluster, then sent to 30 production instances across 3 EC2 regions.

Так как опыта в разработке и эксплуатации систем контейнерной дистрибуции и развёртывания ПО у всех участников этого альянса более чем достаточно, сроки создания нового стандарта установлены практически реактивные (кто сталкивался с промышленной стандартизацией, может их оценить по достоинству) – первая предварительная редакция стандарта должна появиться уже в конце июля. И никаких сомнений нет, что появится вовремя.

Очень хорошее начинание и очень важный шаг в развитии Linux Foundation и движения open source в целом.

Теперь немного пользы.

Раз уж речь о таком характерно «непользовательском», то вот одна малоизвестная, но хорошо работающая мелочь, которая наверняка пригодится системным администраторам – nsnotifyd.

Этот «демон» является крохотным «DNS почти сервером», предназначенным сугубо для «прослушивания» сообщений DNS NOTIFY от авторизованных DNS-серверов (об обновлении зон etc) и активации заданных администратором скриптов, поставленных в соответствие разным сообщениям.

Не буду пытаться рассказывать, что с его помощью можно сделать и для чего (администраторы лучше меня это знают), просто хорошая утилита.

Откланиваюсь.

«Нет смысла»? Тем более, интересно.

Помнится, я писал об одном мероприятии, на котором если не приговором, то констатацией суровости нашей реальности не раз звучали слова «проектировать своё нет смысла». Причём речь шла о довольно простых (что значит это «довольно» и будет объясняться далее) и интересных устройствах. О дронах.

Задолго до этого события мне было очевидно, что взрыв роста интереса к простым дронам и моментальное (за год где-то) перемещение их из категории исследовательских приборов в товар (ещё и с ценовой планкой ниже установленной рынком для средне хорошего смартфона, товара эталонно массового) означает относительную простоту проектных процессов.

Вот и стало интересно попробовать на досуге пройти своим путём по той же дороге – если кто-то может, то, почему, не я (причём "поход"  серьёзный, от компонентного уровня, без всяких готовых узлов).

Попробую поделиться не столько деталями (не потому, что жалко, - они никому не интересны, у каждого свой подход к решению каких-то задач), сколько тем информационным базисом, который оказался необходим. Он не страшный и вполне «подъёмный» даже в режиме «работы для души, по вечерам».

Прекрасно понимаю, что дроны востребованы сейчас, будут востребованы ещё больше – мы мало что сельскохозяйственная страна, с огромными площадями плодородных земель, на нашей территории располагаются уникальных масштабов транснациональные системы, вроде резервированных магистральных газопроводов, создававшихся ресурсами всего СССР десятилетиями (и только совсем наглые и глупые лжецы могут обещать быструю замену этому уникальному) - всё это требует заботы и ухода, а где большие площади – там и потребность в дешёвом, дёшево летающем и не требующем массовой подготовки каких-то уникальных профессионалов.

Если вы внимательно прочитали предыдущий абзац, вы должны понять – в нём фактически прозвучало то, что называется «техническим заданием». Неявно, но оно там есть (для того этот абзац вообще попал в текст).

В наших специфических условиях дроны должны быть «расходным материалом». Исключительно технологичным (причём, с учётом доступной небольшим компаниям производственной базы – никто не станет рисковать масштабными инвестициями в производство совершенно нового высокотехнологичного продукта для внутреннего рынка), требующим минимума производственных операций с короткими логистическими цепочками, опирающимися на поставщиков компонентов, умеющих работать с мало- и среднесерийными производителями.

Впрочем, лучше по порядку. Мы будем говорить о дронах одной схемы – многовинтовых, с числом винтов, большим двух. Трикоптеры, квадрокоптеры, гекса- и октокоптеры, и так далее. Все они потому так быстро прижились и перешли из экспериментальных устройств в товар, что довольно просты, очень технологичны и, что главное, их технологичность соответствует производственным возможностям малых и средних компаний при небольших объёмах производства (если присмотреться к рынку, подтверждение этому можно увидеть невооружённым глазом, именно такие компании его и формируют). Единственный существенный недостаток этих дронов – малое время полёта.

Как всегда в инженерии, если что-то характеризуется одним известным недостатком, способы устранения этого недостатка будут найдены. Можно говорить, что этот недостаток многовинтовых дронов потенциально устранён – системы питания на основе топливных элементов позволяют довести полётное время квадрокоптера до почти трёх с половиной часов (по крайней мере, канадская Energyor об этом заявляет, как о новом мировом рекорде, и никаких поводов сомневаться в их заявлениях нет).

«Нет смысла»? Тем более, интересно.

Квадрокоптер-рекордсмен c системой питания, основанной на топливных элементах, Energyor

А раз принципиальное решение есть, то ответ на вопрос сначала заключается только в деньгах, позднее – в принятии «дроновой промышленностью» (вот здесь есть действительно трудное в разрешении противоречие между стоимостью дрона и ограничением гос.регуляторами дальности полёта коммерческих дронов дальностью прямой видимости оператором).

Небольшое отступление об этом безусловно важном недостатке (в реальности аппарат с полётным временем 15 минут полезен разве что для развлечения) предназначено сугубо для «самооправдания», чтобы не бояться доводов «они недолго летают, потому возиться с их проектированием смысла нет». Будут они долго летать :)

Основных проблем у конструктора многовинтового дрона, по моему скромному мнению «конструирующего дилетанта», всего две. Первая – изобилие бессистемных тематических материалов (следствие массового любительского подхода) и нехватка «систематического подхода к проектированию», вторая – специфика малых медленных летательных аппаратов, на которые очень долго никто не обращал внимания, настолько долго, что буквально 15 лет назад начали появляться теоретические работы, посвящённые аэродинамике поверхностей при очень низких числах Рейнольдса (менее 10.000), да и просто малые значения этого фундаментального параметра (100.000 – 150.000) тоже не относятся к «классике».

Аэродинамика всегда была, выражаясь чудовищным языком агитплаката, «на службе у военных», а там всегда нужно было как можно быстрее, включая гиперзвуковые скорости, и как можно больше (что в смысле полезной нагрузки, что в неизбежных габаритах). В общем, сверхмалые летательные аппараты были уровнем любительских кружков творчества, баловством и немного – спортом.

Есть третья проблема, но она весьма условна – диспропорция в многовинтовых дронах между ролями разных -ware: soft-, hard- и aero-. Если в классических радиоуправляемых моделях самолётной или вертолётной схемы aero- и hard- составляли чуть ли не 90%, то в многовинтовых дронах картина строго противоположная (кстати, потому и масса конструкций хоть и летает, но далеко не так хорошо, как это возможно – дрономания заманила в свою область море «больше программистов, чем инженеров», а оставшиеся 10% составляющей многовинтового дрона программно компенсировать невозможно, увы).

Все эти соображения возникли не на пустом месте, конечно, а из приличного периода ознакомления с предметной областью и «мучений» всяких летающих многовинтовых изделий. После этого периода «чужие игрушки» стали неинтересными, захотелось поиграть в другие и свои. Так как ни о какой «науке» и «исследованиях» речь идти не может (нет ресурсов, времени и вообще смысла), лучше всего было найти тех, кто уже прошёл путём системного проектирования сверхмалого многовинтового аппарата. Путём, который учитывает вибрационные характеристики несущей конструкции, аэродинамические – её же и винтов, etc. Это оказалось не так просто, но и не невозможно.

В журнале Unmanned Systems, Vol. 2, No. 2 (2014) есть немаленькая (21 страница) статья «Systematic Design and Implementation of a Micro Unmanned Quadrotor System» (авторы - Swee King Phang, Kun Li, Kok Hwa Yu, Ben M. Chen, Tong Heng Lee, все из Национального Университета Сингапура). Я не буду приводить конкретные ссылки, всё перечисленное в формате pdf нетрудно найти по приведенным данным. Статья посвящена проектированию совсем крохотного квадрокоптера (с полётным весом всего 100 граммов, но высотой полёта до 100 метров). Она полезна и интересна подходом к структурному проектированию аппарата, снижающим передачу вибраций на систему инерциальной навигации. А также общей, «с нуля», проектной картиной бортовой электроники (из-за очень маленьких габаритов и веса применение готовых узлов оказалось неприемлемым решением). Советую всем, кто берётся за N-коптеры, внимательно изучить эту статью, незачем изобретать новые проектные подходы, если кто-то за вас это уже сделал, и сделал хорошо. Она весьма ценная, и, например, подсказывает, что совершенно не обязательно использовать какие-то хитрые композитные материалы для рамы, радикально это ничего не улучшит, поможет понять, например, какие распространённые дешёвые алюминиевые профили рациональны в качестве материала рамы и как оценить вибрационные свойства конструкции.

Пропеллеры и их взаимодействие с элементами конструкции дрона – пожалуй, то главное aero-, что есть в многовинтовых дронах. И есть упомянутая в самом начале специфика – низкое значение числа Рейнольдса. Как ни странно, но и в этой области уже есть доступные работы (и я очень сомневаюсь, что бесчисленные, особенно китайские, производители комплектующих для N-коптеров сильно уж «заморачивались» оптимизацией своих изделий). «Low Reynolds Propellers for Increased Quadcopters Endurance», диссертация автора со звучным именем Isa Diana de Sousa Baptista Morais Carvalho, посвящена как раз решению задачи расчёта профилей пропеллеров, соответствующих специфике N-коптеров (число Рейнольдса в пределах 5.000-100.000). Конечно, это уже специфика, требующая знаний аэродинамики, но, как оказалось, вполне «подъёмная» для подготовленного инженера (правда, требующая довольно много времени). Но если уж браться за что-то, то упускать из вида основной аэродинамический элемент N-коптера никак нельзя. Потери от неэффективных пропеллеров, особенно для N-коптеров, проектирующихся для продолжительных полётов (с относительно «медленными» пропеллерами большого диаметра), могут «съедать» до 30% заряда батарей.

«Ориентация» пропеллеров в реальной конструкции. Удивительно, но хорошо известно, доказано теоретически и практически, что пропеллеры N-коптеров (в частности, квадрокоптеров) более эффективны при расположении их ниже рамы аппарата, в «толкающем» режиме (выигрыш в энергоэффективности может доходить до 15%). Теоретическое обоснование есть, например, в статье «Modelling and Control of a Quad-Rotor Robot» (авторы - Paul Pounds, Robert Mahony, Peter Corke, Национальный Университет Австралии), на практике это подтверждается производителями профессиональных дорогих аппаратов для коммерческого использования, с большим временем полёта, яркий представитель - Aeryon SkyRanger (заявленное и подтверждённое полётное время, при традиционной аккумуляторной системе питания, без топливных элементов, - 50 минут):

«Нет смысла»? Тем более, интересно.

Большинство производителей предпочитают «классическую компоновку» с пропеллерами над рамой, при которой меньше нагреваются двигатели (они обдуваются воздухом пропеллером, отсюда в том числе и потери эффективности), меньше рисков при посадке сломать пропеллеры (массовый рынок квадрокоптеров пока остаётся «развлекательным» и потому исключающим какие-либо специальные требования к потенциальным пользователям) и для них проще (читай – дешевле) рамы.

Выбор числа пропеллеров. Совершенно удивительная область. Фактически никакого систематического изучения отыскать не удалось, только отдельные материалы. Из них понятно одно – чем больше винтов и чем меньше их диаметр, тем хуже для конструкции, которая должна долго летать. Увы. В общем, теория и практика доказывают, что лучше дешёвый и хороший квадрокоптер, чем дорогой и не очень хороший октакоптер с соосными винтами (зато последний может быть более надёжным при выходе из строя одного из двигателей, хотя и это потенциальная возможность). А дальнейшими исследованиями пусть занимаются университетские команды.

Обязательной для изучения является и ставшая неоклассической работа Мэтью Уоттсона (Matthew Watson) «The Design and Implementation of a Robust AHRS for Integration into a Quadrotor Platform» (2013 год, Университет Уорик, Meng Electronic Engineering). Аббревиатура AHRS (Attitude And Heading Reference System) на деле означает ту самую систему инерциальной навигации, но в современном исполнении (с MEMS-гироскопами, акселерометрами и магнетометрами) и интегрированную с обязательной собственной подсистемой sensor fusion – предварительной «подготовки-улучшения» потока данных от сенсоров. Достойная титулов Университета Уорик работа, очень хорошо написанная, доступная и многократно подтверждённая практикой.

Для N-коптеров система инерциальной навигации (AHRS) – ключевая, потому что она является и фундаментальной системой стабилизации. А в ней ключевые узлы – гироскопы, акселерометры и (в меньшей мере) магнетометры. Все эти узлы в малых N-коптерах обычно используются в MEMS-исполнении (грубо говоря - в виде микросхем). Это недорогие и доступные компоненты. Но их параметры далеки от даже от «просто хороших» для решения задач стабилизации N-коптера и, особенно, для точного полёта по программе, в полностью автоматическом режиме. На рынке есть, конечно, готовые модули AHRS, относящиеся к классу tactical grade, но их стоимость такова, что о той самой первой задаче проектирования (дрон как расходный материал) лучше раз и навсегда забыть (речь идёт о тысячах и десятках тысяч долларов). Любой инженер знает принцип получения нового качества за счёт параллельного использования N узлов одного типа, в некоторых случаях этот принцип работает. Поэтому есть смысл сразу проверить ответ на вопрос – возможно ли улучшение характеристик AHRS за счёт использования N однотипных MEMS-сенсоров (в первую очередь, гироскопов)? Оказывается, и таким кто-то занимается. И если этот подход принципиально и подтверждённо на уровне прототипов работает, то он претендует на использование в хорошей конструкции (шесть-восемь микросхем по $10 каждая – это, всё-таки, ощутимо дешевле, чем tactical grade инерциальный модуль). К слову, это область, где вполне можно сказать «своё слово», здесь есть что делать (например, даже хорошо подготовленным студентам). Но в целом, здесь всё понятно, благодаря следующим работам:

  • «Signal Processing of MEMS Gyroscope Arrays to Improve Accuracy Using a 1st Order Markov for Rate Signal Modeling», в открытом бесплатном доступе, Sensors 2012, 12 (авторы – Chengyu Jiang, Liang Xue, Honglong Chang, Guangmin Yuan, Weizheng Yuan)
  • «Combining Numerous Uncorrelated MEMS Gyroscopes for Accuracy Improvement Based on an Optimal Kalman Filter», IEEE Transactions On Instrumentation And Measurement (авторы - Honglong Chang, Liang Xue, Chengyu Jiang, Michael Kraft, Weizheng Yuan)
  • «A new approach to better low-cost MEMS IMU performance using sensor arrays», Institute of Navigation GNSS+ 2013, 16-20 September 2013 (авторы - Henry Martin, Paul Groves, Mark Newman, Ramsey Faragher)

TBC 

NRAM или «а вот и революция!» (и чуть-чуть полезного)

Компании Nantero почти 15 лет. При этом очень мало кто о ней слышал – компания работала почти в режиме «радиомолчания» (к тому же, она из очень тихой страны – Бельгии, – откуда вообще редко что «раздаётся» на весь мир).

Но «просачивающиеся» новости были весьма забавными. Потому что в игры вокруг Nantero тоже очень тихо включались настоящие промышленные монстры, известные крайней осторожностью в приобретениях (отягощённые классическим материальным производством не позволяют себе то, что дозволено Юпитерам бизнесов с «чисто виртуальными продуктами»).

Когда в 2008 году Lockheed Martin Corp выкупила у Nantero эксклюзивные права на использование интеллектуальной собственности маленькой компании в «государственном секторе» (читай – в оборонных заказах), стало понятно, что Nantero сама играет в очень серьёзные игры.

И вот фактически тайны Nantero раскрылись – компания вывела на рынок промышленное производство нового вида энергонезависимой памяти на карбоновых нанотрубках, не требующее новых фабов.

Пожалуй, этот факт адаптации принципиально новой технологии к существующим производственным мощностям - самое главное в стратегии Nantero, он объясняет сроки, затраты, «тишину», почти 400 патентов в базе интеллектуальной собственности и, наконец, потенциальный успех.

В одном абзаце ключевые характеристики энергонезависимой памяти по технологии Nantero:

  • нулевое энергопотребление в режиме хранения,
  • энергозатраты на запись бита почти на два порядка ниже, чем у флэш-памяти, при на несколько порядков большем количестве циклов записи,
  • время выполнения операций чтения-записи на два порядка ниже чем у NAND флэш,
  • очень высокая надёжность хранения при высоких температурах (более 1000 лет – при 85C, более 10 лет – при 300C) и радиационная стойкость (уже проверенная и подтверждённо испытанная),
  • потенциальная ёмкость выше DRAM (терабиты),
  • полная совместимость с технологическим циклом производства CMOS-микросхем и пригодность к использованию в кремниевых 3D-структурах для повышения степени интеграции,
  • масштабирование до технологических норм 5 нм.

О такой энергонезависимой памяти инженеры могли только мечтать.

Не буду расписывать принцип работы ячейки NRAM (кому интересно – есть статья в википедии), сконцентрирую внимание на главном – взрыв в публикациях об этой технологии связан больше со стратегией Nantero, чем с физикой процессов резистивной памяти на карбоновых нанотрубках.

Одновременное совместное с фабами освоение новых дешёвых технологий производства и фаблесс-модель лицензирования IP (после успеха ARM она уже никого не удивляет, а многих и вовсе пугает) – это очень высокий уровень заявки на долю рынка. Вероятнее всего, именно из-за очень серьёзной игры, несмотря на заявленную готовность технологии «на многих фабах», страница «партнёрство» сайта Nantero выглядит так:

NRAM или «а вот и революция!» (и чуть-чуть полезного)

В списке открытых партнёров «всего лишь» Schlumberger (оборот $46,8 млрд), Lockheed Martin (оборот $45,6 млрд) и скромная на их фоне On Semiconductor (оборот $2,8 млрд) (да, это не «классический программистский стартап»).

Итак, ждём. Если первые же пока секретные лицензиаты IP от Nantero устроят рынку встряску новыми микросхемами энергонезависимой памяти, будет очень интересно. Хотя бы потому, что доступная память с такими возможностями очевидно требует прочих адекватных подсистем, например, процессорных ядер. И тут может возникнуть некоторое противоречие, а все инженерные противоречия – повод для совершенствования и появления новых решений, то есть, стимул для движения.

Теперь немного пользы, давно её не было, потому что не так уж её и много.

Одна из самых загадочных в смысле бизнес-модели компания Pushbullet «вывела на рынок» новый продукт и сервис. Как обычно, - без рекламы и оплаты, как обычно – прекрасно исполненный.

Portal – ещё один сервис и приложение, «заменяющие usb шнурок» для пересылки файлов, например, с ноутбука на Android-устройство. О них даже и рассказывать нечего, кроме – пересылка файлов происходит в локальной сети, а процедура работы с сервисом и приложением минималистична до необычности.

Вы устанавливаете приложение Portal на своём Android-устройстве, открываете браузером другого компьютера (в той же сети, где Android) страницу сервиса Portal, сканируете Android’ным приложением Portal QR-код на этой странице - и страница автоматически изменяется, предоставляя возможность «забрасывать в неё» файлы с помощью drag’n’drop. «Перетянутые» в страницу браузера файлы появятся в файловой системе Android-устройства в каталоге Portal.

Никаких регистраций, аутентификаций, ни одного лишнего действия.

Если вам не нужны расширенные возможности, например, Airdroid, а только «заливка» файлов (в том числе больших, гигабайтных), рекомендую, Pushbullet опять сделали очень простое и полезное.

Откланиваюсь

Дрононовости первой половины июня

Попробовал собрать самое интересное за этот месяц о нарождающейся индустрии UAV (беспилотных летательных аппаратов), причём всякое, сугубо мирное и не очень.

Сельскохозяйственные применения. В Австралии, в Южном Квинсленде, завершились 18-месячные испытания сельскохозяйственных дронов.

Государственную программу испытаний можно назвать скромной (грант всего $50K), но это объясняется низкими затратами на закупку и эксплуатацию сверхмалых машин. Совместно с государственной службой землепользования в программе принимала участие австралийская ассоциация CTF (Controlled Farming Traffic, не буду пытаться это переводить, просто обращу внимание на тематическую страницу сайта ассоциации, там, если вчитаться, речь идёт именно о применениях в том числе и IT).

Цель испытаний – оценка эффективности сверхмалых дронов в агротехнической цепочке для решения задач выявления нехватки удобрений и полива, заболеваний растений, а также вскрытия очагов распространения сорняков.

Используемый дрон работал в полностью автоматическом режиме, не требующем вмешательства пилота.

Дрононовости первой половины июня

При средней высоте полёта примерно 115 метров бортовая аппаратура дрона обеспечивала получение снимков с разрешающей способностью 1 сантиметр в одном пикселе. Получаемые с помощью дрона снимки на основе геотэгов прозрачно «сшивались» программным обеспечением, полученная «картинка» использовалась специализированными программами для агрономов.

Результаты этих испытаний лаконичны – при стоимости дрона $35K и стоимости одного вылета от $30 до $50 за час полётного времени, в австралийских хозяйствах, основывающих свою работу на принципах CTF, полученный с помощью дрона канал информации оказался эффективным и выгодным для ферм с небольшой площадью посевов (порядка 80 гектаров).

Выявленные проблемы также можно перечислить лаконично – несмотря на эффективность, внедрение дронов даже только для получения канала прецизионной визуальной информации сильно усложнено строгостью государственного авиационного регулятора и в несоизмеримо меньшей мере – спецификой дронов с большим временем полёта (например, запуском с катапульты).

Никаких нареканий к уровню развития автопилотов и ПО предполётной подготовки испытания не выявили – современный дрон вполне может использоваться в сельском хозяйстве в режиме «запустил и забыл».

По моему скромному мнению, опыт этой программы – отличная отправная точка для пытающихся внедрять дроны в наши сельскохозяйственные применения. Понятно, что $35K за аппарат – несуразная цифра для наших небольших фермерских хозяйств (да и для больших тоже). Но тут надо учитывать, что дроны сейчас находятся на пике hype-этапа развития технологий, и цены на «не для игр» машин «несколько завышены» из-за несоответствия интереса на словах и в СМИ-шуме и реальным спросом. Но об этом я напишу отдельно, это очень интересная тема.

«Противодронная оборона». Шум и hype вокруг дронов, доступность дешёвых моделей и «изобретательность», порой весьма вычурная и потенциально опасная, приводят к появлению противодронной обороны. Не обязательно военной, кстати. Причём это область очень непростых задач, настолько, что для их решения требуется образование даже новых альянсов.

Так, три британских компании, Blighter Surveillance Systems, Chess Dynamics и Enterprise Control Systems объединёнными усилиями создают систему ПДО (противодронной обороны) – AUDS (Anti-UAV Defence System).

Дрононовости первой половины июня

Система образована радиолокатором коротковолновой части сантиметрового диапазона от Blighter Surveillance (Ku band, длина волны менее 3 см), электронно-оптическим комплексом сопровождения и распознавания целей от Chess Dynamics и аппаратурой электронного подавления и перехвата от Enterprise Control Systems.

Принцип работы очевиден – дрон обнаруживается радиолокатором (заявленная дальность обнаружения дронов со взлётным весом до 20 кг – до двух километров, больших аппаратов – до восьми км), электронно-оптический канал используется для идентификации дрона, его сопровождения и постоянного наведения антенн системы радиоэлектронной борьбы. Дальше уже – дело техники. Или радиоканалы дрона будут «задавлены», или будет поставлена помеха GPS или вообще управление дроном будет перехвачено, всё зависит от того, с чем именно борется система. AUDS уже прошла «обкатку» в демилитаризованной зоне между Южной и Северной Кореями, но не принципиально военный характер системы подчёркивается поставками альянсом и версии с «гражданским ценником».

«Радиационно стойкие дроны». Радиационно-стойкая электроника очень дорогая, radhard-микросхемы отличаются невысокой степенью интеграции (есть тому причины), в общем, это очень специфическая область. Но в Университете Чиба (Япония) этого не боятся. Проектируемые там дроны прездназначены для внутреннего исследования зданий реакторов атомной электростанции Фукушима с использованием активной лазерной локации при полном отсутствии корректирующей работу автопилота GPS-информации.

Дрононовости первой половины июня

Особенно интересны в этой разработке механизмы, исключающие взаимодействие человека с неизбежно радиоактивным после первого же вылета дроном. Аппарат умеет находить своё место базирования, садиться с нужной точностью и с помощью автоматики заменять севшие батареи.

Реальность рынка коммерческих дронов. Если hype, то на пике – полный hype. В реальности цифры, оценивающие рынок зарегистрированных коммерческих дронов, весьма скромны. Речь идёт о сотнях. Почти половину рынка «выедает» продукция компании DJI – 184 аппаратов.

Дрононовости первой половины июня

Причём это те же модели дронов, которые для некоммерческих применений может купить любой желающий.  Если же говорить о компаниях, нацеленных на конкретные рынки, например, о Precisionhawk (целевой рынок – аргосектор), речь вообще идёт о полутора десятках аппаратов. Очень интересная информация, иллюстрирующая силу «ослабляющего действия» регулирующих органов – примерно в тысячу раз, при нескольких сотнях тысяч проданных дронов, официально (с регистрацией и получением «хвостового номера») коммерчески используются менее четырёх сотен (всего же FAA выдала пока 548 разрешений на коммерческую эксплуатацию дронов). При всём этом странном венчурные капиталисты за этот год уже инвестировали в «дроностроение» больше $170 млн, что на фоне $100 млн за весь 2014 год выглядит внушительно.

В общем, в индустрии дронов все ждут большого взрыва, по ходу дела «обкатывая» технологии на любителях, что очень неплохо – если дроны доросли до продукта, с которым могут в удовольствие себе играться неподготовленные «домашние пользователи», в несоизмеримо более упорядоченном «корпоративном секторе» с их адаптацией будет намного проще.

Откланиваюсь.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT