`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

JavaScript уверенно лидирует как самый популярный язык программирования

Созданный в 1995 г. для оживления веб-страниц JavaScript сегодня является самым широко используемым языком программирования в мире. К такому заключению пришёл ресурс Stack Overflow, проанализировав результаты очередного ежегодного опроса. Фактически, JavaScript возглавляет этот рейтинг с 2014 г., когда он обошёл SQL.

JavaScript уверенно лидирует как самый популярный язык программирования

За два десятилетия простой язык сценариев прошёл большой путь. Появление Node.js, специализированной версии высокопроизводительного движка JavaScript V8 компании Google (используемой в браузере Chrome), открыло ему дорогу в серверы. В дальнейшем, с выходом HTML5 обязательной стала подержка программных интерфейсов JavaScript, позволяющих веб-страницам действовать как веб-приложения.

Результаты опроса, в этот раз охватившего приблизительно 56 тыс. программистов из 173 стран, подтверждаются и исследованием предпочтений гораздо более широкой аудитории. Ежемесячно сайт Stack Overflow посещает 40 млн человек и тэг JavaScript с июня прошлого года обошёл Java, став самым востребованным на этом ресурсе (а Swift в декабре обогнал по популярности Objective-C).

Разработчики со знанием JavaScript пользуются хорошим спросом и могут требовать больших окладов в качестве дизайнеров интерфейсов, однако, по крайней мере в США, лучше всего оплачиваются навыки программирования на Spark и Scala, «рабочих лошадках» аналитики данных.

JavaScript уверенно лидирует как самый популярный язык программирования

Список «самых любимых» языков возглавляют Rust, созданный Mozilla на базе C/C++, и Swift компании Apple. Неплохи дела и у заслуженного ветерана индустрии – Java, тогда как C++ вместе с современными ему Objective C и Perl перешли в список «неудачников». Анти-лидерами в нем стали Windows Phone и, видимо, уже переваливший через недолгий пик своей популярности язык функционального программирования Haskell.

Не стала откровением интерес рынка к мобильным и веб-технологиям. Как отмечается на Stack Overflow: «Растет применение новейших технологий веб-разработки, таких как React, Node.js и AngularJS. Похоже, что программисты отказываются от CoffeeScript, Haskell и Windows Phone. И, хотя многие из которых их планируют уйти из Visual Basic и Wordpress, эти технологии пока не обнаруживают заметных признаков спада».

Около 28% всех респондентов, которые ответили на 45 вопросов о том, какими средствами разработки они пользуются и почему, охарактеризовали себя как универсалов, деятельность 8,4% ограничивается мобильной разработкой, а ещё 5,8% – пользовательскими веб-интерфейсами (front-end). Интересно, что 69% разработчиков нужными навыками программирования, хотя бы отчасти, овладели самостоятельно, а 13% это полные самоучки.

В формате этого блога можно представить лишь тонкий срез этого интереснейшего исследования. Ознакомиться с полным докладом можно на сайте Stack Overflow.

Разработчик Tor постарался рассеять опасения пользователей

Получившее широкую огласку противостояние между Apple и Минюстом США закономерно привело к росту интереса к главному оплоту цифровой защиты приватности, проекту Tor. Каковы шансы на то, что в результате технической диверсии или во исполнение постановлений суда проект может быть вынужден открыть критическую информацию, нарушающую анонимность его участников?

Разработчик Tor постарался рассеять опасения пользователей

Скорее всего, эта неприбыльная организация ещё опубликует официальное разъяснение занимаемой позиции, а пока ведущий разработчик Tor Browser, Майк Перри (Mike Perry), в понедельник в своём блоге постарался доступно ответить на эти вопросы.

Ещё три года назад Перри выступил зачинателем инициативы, предоставляющей пользователям возможность создания из исходного кода собственных «детерминистских сборок», целостность которых и идентичность каноническому оригиналу проверяется с использованием публичных криптографических ключей этой организации и других публичных копий приложения.

«Даже если правительство или преступники получат наши криптографические ключи, распределённая сеть и её пользователи смогут обнаружить это и сообщить нам о проблеме безопасности, – пишет Перри. – С инженерной перспективы наши процессы обзора кода и открытой разработки делают возможным быстрое обнаружение такого «черного хода»».

Для того, чтобы распространять поддельную версию Tor Browser хотя бы без предварительных срабатываний защиты требуются два ключа: SSL/TLS, защищающий соединение между пользователем и серверами Tor Project и ключ для подписи программного обновления. Как указал Перри в разделе вопросов и ответов своего поста, эти ключи недоступны для одних и тех же людей и защищены разными способами.

Анонимный характер сети Tor не позволяет нацелить атаку на определённый сайт даже в маловероятном гипотетическом случае, когда в одни руки попали оба этих ключа. Поддельное обновление можно рассылать только случайным людям или всем сразу. Но в последнем случае (если, вдобавок к обладанию ключом взломали веб-сервер) велика вероятность обнаружения подделки теми, кто воспроизвёл сборку независимо. Добиться совпадения сигнатур сборок можно лишь заполучив инженерный ключ GPG.

Перри сообщил, что их организация ещё никогда не получала в законном порядке требования разместить «чёрный ход» в своих программах или исходном коде, либо предоставить средства для расшифровки.

Любые подобные посягательства Tor Project рассматривает лишь как ещё один из многих факторов риска, с которым её инженеры борются путём устранения критических слабых звеньев в системе, так чтобы распределённая сеть The Onion Router и её пользователи могли обнаружить факт взлома даже если хакер обладает всеми нужными ключами. Кроме того, ускорено создание программы поощрений за обнаружение уязвимостей, которая бы побуждала сторонних программистов сообщать о любых недоработках, имеющих отношение к основным программным продуктам Tor Project.

Dropbox: мы не ширпотреб, мы индпошив

Dropbox анонсировал планы миграции с сервисов AWS на собственное внутреннее облако.

При этом, проект, который окрестили Magic Pocket, находится уже в изрядно продвинутой стадии реализации – в октябре прошлого года 90% пользовательских данных сервис Dropbox хранил во внутренней инфраструктуре. Поэтому сама AWS вряд-ли услышала от Dropbox что-нибудь, чего она еще не знала, помимо заверений в дальнейшем сотрудничестве.

Вице-президент Dropbox по инфраструктуре, Ахил Гупта (Akhil Gupta) подчеркнул, что его компания во многом обязана быстрым ростом сотрудничеству с AWS. Она и в дальнейшем ориентируется на гибридный подход и, наряду с инвестициями в свои ЦОД, продолжит работать с AWS там, где это будет иметь смысл, особенно на глобальном рынке. На этот год, фактически, запланировано расширение сотрудничества. Дополнительные ресурсы AWS будут задействованы для хранения данных в Германии, как того требуют бизнес-клиенты из Европы.
 
По поводу аргументов, подвигших Dropbox к переходу «на свои хлеба», лучше предоставить слово самому Гупта: «Есть несколько причин такого решения. Во-первых, одним из главных достоинств нашего предложения является производительность. Перемещение хранения под свою крышу позволит осуществить комплексную оптимизацию всех компонентов и улучшить производительность для нашего конкретного случая. Во-вторых, среди ведущих мировых провайдеров облачных служб наш способ применения блочного хранения уникален. Мы можем настаивать оборудование и ПО применительно к нашим масштабам и специфике работы, добиваясь лучшей рентабельности подразделения».

Рецепт Dropbox, таким образом, не подходит для бизнеса в целом, где хватает примеров не только полной миграции на IaaS, но и встречного, и даже, как у Zynga, поступательного движения. Он – для горсти игроков, испытывающих уже сегодня потребность в создании систем хранения экзабайтного уровня.

По словам Гупта, свою инфраструктуру Dropbox пришлось строить на ровном месте, поскольку «сообщество Open Source не могло предложить ничего такого, что работало бы надёжно в нашем масштабе». Создаваемая система шифрует хранящиеся данные и нацелена на обеспечение гарантированной сохранности данных (data durability) 99,9999999999% в год. Очень впечатляющая цифра, представляющая собой больше рекламный ход, так как говорит лишь о вероятности возникновения необнаруженной ошибки в одном бите в годовой срок. Более понятный клиентам показатель готовности (availability) выглядит скромнее, составляя «всего» четыре девятки 99,99%.

Запоздалый анонс имеет свои плюсы, уже ясно, что решение, принятое компанией более двух лет назад не стало для неё катастрофическим, несмотря на то, что вроде бы противоречит диктуемой мировой экономикой тенденции инфраструктурного аутсорсинга. Но оно явно ещё не доказало свою выгодность и рано считать Dropbox пророком уровня той же Amazon – розничного веб-ресурса, более десятилетия назад инвестировавшего в инфраструктурные сервисы. Ну, а выводы можно будет делать лишь через несколько лет, когда определятся расходы на проектирование, разработку, внедрение и эксплуатацию собственной инфраструктуры и оправдаются или нет прогнозы самой Dropbox на дальнейшее расширение её бизнеса.

«Капельное орошение» позволяет чипам работать в шесть раз интенсивнее

С тех самых пор, когда в 1904 г. была изобретена первая вакуумная лампа, тепло стало главным бедствием для электроники. Именно из-за необходимости как-то избавляться от него, старые радиоприемники напоминали по конструкции мебель, а первые компьютеры занимали целые комнаты. Каждый вентиль в них представлял собой лампу накаливания, для охлаждения которой требовалась циркуляция воздуха.

«Капельное орошение» позволяет чипам работать в 6 раз интенсивнее

Даже теперь, после столетия борьбы с этой проблемой, генерируемое микроэлектронными устройствами тепло уменьшает сроки и эффективность их эксплуатации. И, к сожалению, с миниатюризацией чипов становится все труднее избавляться от него традиционными методами – с помощью вентиляторов, радиаторов или систем водяного охлаждения.

«Контролируя тепло, можно обойтись меньшим количеством чипов, а значит использовать меньше материала, то есть сэкономить на цене, уменьшить габариты и вес системы. Можно также оставить прежнее количество чипов, но добиться повышения производительности», – комментирует Джон Дитри (John Ditri), сотрудник корпорации Lockheed Martin, принимающий участие в программе ICECool.

Целью инициативы Inter/Intra Chip Enhanced Cooling (ICECool) агентства DARPA является создание принципиально новых систем охлаждения, которые можно было бы встраивать в сами микросхемы. Команда Lockheed рассчитывает осуществить это с помощью разрабатываемой ею технологии «микрожидкостного охлаждения», в которой для отвода тепла используются микроскопические капли воды.

«Капельное орошение» позволяет чипам работать в 6 раз интенсивнее

В настоящее время инженеры Lockheed завершили второй этап (Phase II) реализации данного проекта. В ходе первой фазы капли воды внедрялись в мощные радиочипы. Было продемонстрировано, что микрокапли способны отводить тепловой поток в 1 кВт/см2 от подложки с многочисленными локальными горячими зонами (30 кВт/см2). Для сравнения, стандартный режим эксплуатации коммерческих чипов предполагает в 4-5 раз меньшее тепловыделение.

В Phase II, коллектив Lockheed опробовал созданную технологию на мощных радиочастотных усилителях. Они добились шестикратного увеличения выходной мощности сигнала, при этом температура устройства была ниже, чем при работе в обычном режиме с традиционным охлаждением.

Теперь авторы приступили к построению полнофункционального прототипа передающей антенны с микрожидкостным охлаждением. Помимо этого, Lockheed с американским производителем полупроводниковой техники Qorvo работает над интеграцией своей системы в чипы на основе нитрида галлия, а впоследствии и арсенида галлия.

В конечном итоге, отлаженная микрожидкостная технология охлаждения, по прогнозам представителей Lockheed, кстати, крупнейшего представителя ВПК США, вполне логично найдет применение в средствах электронной войны, в радарах, а также в высокопроизводительных компьютерах и серверах.

Томлинсон – человек и символ

В прошлую среду от сердечного приступа скончался Рэй Томлинсон (Ray Tomlinson), один из пионеров информационной эры, в качестве сотрудника бостонской фирмы Bolt Beranek & Newman (BBN) стоявший у истоков сети ARPAnet.

Наибольшую известность для широкой общественности Томлинсон получил как учредитель стандартного формата для адреса электронной почты, в котором имя адресата от названия хоста отделяет символ @ (at). В недавнем интервью Томлинсон рассказал, что искал на клавиатуре редко используемый знак, а @, к тому же оказался единственным представленным там предлогом. Так или иначе, такой выбор вывел из забвения символ @, а в 2010 г. он даже попал в коллекцию музея современного искусства (MoMA).

Томлинсон – человек и символ

Разумеется, у Томлинсона имеются многочисленные заслуги кроме этого, многие источники даже называют его «отцом e-mail», отправившим первое электронное письмо в 1972 г. В 2012 г. он был включен в Зал Славы Интернета как автор первого базового приложения для отсылки и чтения электронных сообщений в ARPAnet.

Летом-осенью 1971 г. Томлинсон модифицировал SNDMSG, программу обмена электронной почтой в многопользовательском компьютере, к тому времени использовавшуюся около десяти лет. Она позволяла другим пользователям дописывать новые сообщения в «почтовый ящик» – файл, открытый для чтения только для его владельца. Внедрение в SNDMSG разработанного Томлинсоном сетевого кода CPYNET с экспериментальным протоколом дописывания файлов (в дополнение к чтению и записи) впервые сделало возможным обмен сообщениями между двумя компьютерами, соединенными только посредством ARPAnet. Тогда-то, чтобы различать почтовые ящики, хранящиеся на разных компьютерах, Томлинсону и понадобился суффикс хоста и символ, отделяющий его от имени.

Не секрет, что рождение электронной почты представляет собой очень размытый во времени процесс. Дата создания этой ключевой технологии во многом зависит от того, что понимать под электронной почтой. Из-за расхождения в базовых определениях е-mail среди историков науки сейчас кипят нешуточные страсти.

Даже если не называть первыми электронными письмами телеграммы на азбуке Морзе середины XIX века или радиотекст, отправленный IBM из Сан-Франциско в Нью-Йорк в 1937 г., то системы AUTODIN и SAGE позволяли обмениваться текстовыми сообщениями между разными компьютерами уже в 1966 г., а в 1969 г. первое интернет-сообщение «Lо» было отправлено в Стэнфорд из лаборатории Леонарда Клeйнрока (Leonard Kleinrock) в UCLA. В 1982 г. Патентное бюро США зарегистрировало права на EMAIL «Компьютерную программу системы электронной почты» за создавшим её четырьмя годами раньше Шивой Айядураи (Shiva Ayyadurai). В 1985 г. родились офлайновые читалки, которые собственно и превратили существовавшие до этого коллективные электронные «почтамты» с ячейками «до востребования» в личные почтовые ящики на персональных компьютерах.

Есть ли какой-то смысл в поиске абсолютного приоритета в условиях подобной неопределённости, наверное, пусть об этом думают те, кому интересно считать ангелов на острие иглы.

Несмотря на его кажущуюся незначительность, @ это, пожалуй, единственный символ, который стал своеобразным цифровым памятником конкретному человеку, и, похоже, что он, в очередной раз обретающий новую жизнь – теперь как префикс в социальных сетях – имеет лучшие шансы уцелеть, чем ещё недавно казавшиеся вечными как само время храмы Пальмиры.

Тьюринговскую премию поделят между собой Диффи и Хеллман

Уитфилд Диффи (Whitfield Diffie) и Мартин Хеллман (Martin Hellman), это два имени, которые просто не воспринимаются по-отдельности, с той исторической статьи, которая четыре десятка лет назад ознакомила мир с концепциями шифрования с публичным ключом и цифровых подписей. И сейчас их имена также оказались рядом, на этот раз в качестве лауреатов премии Тьюринга – самой престижной награды за заслуги в развитии компьютерных технологий.

Тьюринговскую премию поделят между собой Диффи и Хеллман

Эта премия в размере миллиона долларов при финансовой поддержке компании Google ежегодно присуждается решением Ассоциации компьютерных машин (Association for Computing Machinery, ACM). Наряду с премией Маркони (её обладателями Диффи и Хеллман стали в 2000 г.) она претендует на вакантное место Нобелевской премии по компьютерам. Как известно, Нобелевский комитет, за вычетом одного разового случая, придерживается пяти категорий номинаций, определённых самим Нобелем в конце XIX века.

Среди прошлых Тьюринговских лауреатов, «отец Интернета» Винт Серф (Vinton Cerf), Майкл Стоунбрейкер (Michael Stonebraker), заложивший фундамент реляционных СУБД, и недавно скончавшийся гуру искусственного интеллекта Марвин Мински (Marvin Minsky).

Идеи, изложенные в «Новых горизонтах криптографии» Диффи и Хеллманом, не утратили актуальности и в наши дни.

Тьюринговскую премию поделят между собой Диффи и Хеллман

Ральф Меркл, Мартин Хеллман и Уитфилд Диффи в 1977 г.

«Сегодня проблемы шифрования заняли первые страницы новостей, рассматриваются как вопрос национальной безопасности, влияют на отношения правительства с частным сектором и привлекают миллиарды долларов ассигнований на исследования и разработку, – отметил в официальном заявлении президент ACM, Александр Вольф (Alexander L. Wolf). – В 1976 г. Диффи и Хеллман представляли себе будущее, в котором люди будут регулярно общаться через электронные сети и эти коммуникации будут уязвимы для перехвата или искажения. Теперь, почти через 40 лет мы видим, что их прогнозы обладали замечательной силой пророчества».

Формальное присуждение награды состоится 11 июня на традиционном ежегодном банкете в Сан-Франциско (штат Калифорния). Уже известно, что Диффи его часть приза поможет в написании истории криптографии, охватывающей период со Второй мировой войны.

Живой суперкомпьютер уже выполнил первые вычисления

Традиционные электронные компьютеры стали катализатором невиданного ранее технологического прогресса в минувшие десятилетия. Однако их последовательная природа – способность работать только над одной вычислительной задачей в данный момент времени – мешает решать сложные проблемы комбинаторики, такие как способ складывания молекулы белка или оптимальная маршрутизация сигналов в сети. Объём вычислений, необходимых для нахождения решения в этих случаях растёт экспоненциально с размером задач, быстро делая их непрактичными для последовательных компьютеров. Уже существующие параллельные системы страдают от недостатков, усложняющих масштабирование и прикладное использование.

В статье, вышедшей на днях в Трудах Национальной Академии Наук (PNAS), излагается новый подход к организации параллельных вычислений, использующий последние достижения нанотехнологий и биологии.

Учёные из Дрезденского технического университета, Института молекулярной клеточной биологии и генетики им.Макса Планка в кооперации с коллегами из Великобритании, Швеции, Канады, США и Нидерландов продемонстрировали решение эталонных проблем комбинаторики путём кодирования их в сети наноканалов с молекулярными моторами. Для этого сначала аналитически проектировали сеть, подходящую для решения проблемы, а затем изготавливали её физический аналог с помощью стандартных нанолитографических технологий микроэлектронного производства.

Авторы продемонстрировали такие достоинства нового метода, как внутреннюю предрасположенность для параллельных вычислений, масштабируемость, устойчивость к ошибкам и энергоэффективность.

Созданная сеть одновременно зондировалась многими белковыми волокнами-микротубулами, которые самостоятельно приводились в движение молекулярным слоем моторных белков (миозин или кинезин), покрывавшим дно каналов. Конструкцией сети были предусмотрены два типа соединений, автоматически перенаправлявшие волокна к правильному решению проблемы. Они позволяли микротубулам проходить либо прямо, либо сворачивать в один из двух каналов с вероятностью 50:50.

Живой суперкомпьютер уже выполнил первые вычисленияЖивой суперкомпьютер уже выполнил первые вычисления

Время решения этим методом комбинаторной задачи увеличивалось с её ростом в степенной зависимости (как N2), что дает огромный выигрыш в сравнении с экспоненциальной зависимостью (2N), характерной для последовательных компьютеров.

Поскольку в работу сети вовлечены только биологические агенты, а источником их питания является АТФ, выделения тепла практически не происходит, а значит снимается проблема перегрева – ещё один фактор, ограничивающий возможности применения традиционных компьютерных архитектур.

Сами авторы затрудняются прогнозировать когда мы увидим полномасштабный биокомпьютер. Одно из вероятных направлений будущих работ это создание гибридных систем, комбинирующих наноканальные сети с обычными компьютерами.

Непреодолимое очарование бесплатности

Пословица о сыре в мышеловке, перефразированная для эры информатики может звучать так: «В мире ничего не достается бесплатно, кроме доступа к хотспоту Wi-Fi, предоставляемому хакерами». Доподлинно неизвестно останавливает ли хоть кого-то оплаченная табачными компаниями всепроникающая реклама вреда курения для здоровья и самой жизни, но в отношении бесплатных хотспотов выяснить истину попыталась чешская антивирусная фирма Avast.

На этой неделе она провела наглядный эксперимент, использовав в качестве подопытных сотни участников и посетителей Всемирного мобильного конгресса (MWC). В барселонском аэропорту, через который проходило большинство из них, Avast открыла бесплатные незапароленные точки беспроводного доступа.

Улов оказался больше, чем надеялись или опасались исследователи. За два часа к хотспотам, носящим привлекательные SSID-имена «Airport_Free_Wifi_AENA», «MWC Free WiFi» и «Starbucks», подсоединилось более 2 тыс. человек, поставив под угрозу свою безопасность ради кратковременного восторга от бесплатного (но не безвозмездного) погружения в Интернет.

Непреодолимое очарование бесплатности

Согласно опубликованной статистике, 50,1% шаровиков имели устройства Apple и ещё 43,4% — Android. 61,7% использовали доступ для поиска в Google или проверки почтового ящика Gmail; 14,9% посетили Yahoo!, и 2% — музыкальный сервис Spotify. Установленным приложением Facebook воспользовалось 52,3%, Twitter — 2,4%, мобильными клиентами для знакомств (Tinder или Badoo) — 1%.

Почти в 2/3 случаев контролировавшие хотспоты инженеры смогли идентифицировать подключенное устройство и пользователя.

В докладе отмечается, что многие из владельцев смартфонов, даже осознавая сопряжённые с использованием открытых хотспотов риски, вообще не принимают участия в выборе точки подключения, не говоря уже об оценке надёжности провайдера. Их устройства могут быть по умолчанию настроены на автоматическое подсоединение к доступным сетям.

В качестве общих рекомендаций, президент Avast по мобильным решениям Гаган Сингх (Gagan Singh) советует отдавать предпочтение более безопасным запароленным беспроводным сетям, а также использовать для обеспечения анонимности и защиты приватности некоторые сервисы VPN, например, Hotspot Shield.

Goldman Sachs: следующим поколением ПК будут виртуальные очки

Один из крупнейших в мире и наиболее влиятельных инвестиционных банков поддержал восторги техногиков по поводу перспектив технологий виртуальной (VR) и дополненной (AR) реальности, придав им характер респектабельного экономического прогноза.

Goldman Sachs следующим поколением ПК будут виртуальные очки

В новом видео от Goldman Sachs, возглавляющая направления телекоммуникаций, медиа и технологий Хизер Беллини (Heather Bellini) заявила, что рынок VR и AR к 2025 г. вырастет до 80 млрд долл., что примерно равняется текущему рынку настольных ПК. Это оценка для базового сценария, оптимистичный же вариант, при котором VR/AR из нишевой технологии эволюционирует в массовую компьютерную платформу, даёт 182 млрд долл., в том числе 110 млрд долл. от продаж оборудования и 72 млрд – ПО.

В опубликованном 13 января докладе Goldman Sachs назвал VR/AR не более и не менее как «компьютерной платформой следующего поколения» и рассматривает её как новую революционную технологию, которая, как это раньше сделали смартфоны, за десять лет перевернёт весь уклад жизни.

Goldman Sachs следующим поколением ПК будут виртуальные очки

«Мы думаем, что эта технология способна изменить взаимодействие с любой отраслью сегодняшней индустрии, и что последствия её применения будут в равной степени знаменательны с потребительской и корпоративной перспектив», – отметила Беллини.

Ситуация сегодня, по её словам, в корне отличается от той, что была 10 лет назад, когда тоже ожидали массового внедрения виртуальной реальности. Прогресс, описываемый законом Мура, привёл к появлению процессоров и графических карт с таким уровнем производительности, который способен обеспечить частоту кадров, нужную для комфортного пребывания в VR.

«Сегодня виртуальную реальность воспринимают главным образом как место, где заядлые игроки проводят своё свободное время, но она все больше вторгается в области повседневной деятельности людей, – утверждает Беллини. – Например, в недвижимость. Вместо того, чтобы потратить уикэнд на обход с агентом 50 домов, вы можете надеть очки или шлем VR и, в ходе виртуальной прогулки, возможно, исключить 30 из 50 позиций, сэкономив своё время».

Обучение вывело алгоритм коррекции кода программ в лидеры по эффективности

Технологии искусственного интеллекта постоянно находят новые приложения. Очередной иллюстрацией гибкости этого подхода стала система исправления ошибок в программном обеспечении, разработанная в Массачуссетском технологическом институте (MIT).

Обучение вывело алгоритм коррекции кода программ в лидеры по эффективности

Система под названием Prophet (Пророк) описывается в статье, которую сотрудники лаборатории MIT CSAIL аспирант Фань Лун (Fan Long) и профессор Мартин Ринар (Martin Rinard) представили на симпозиуме по принципам языков программирования, состоявшемся в январе в Санкт-Петербурге (штат Флорида).

Prophet обучалась на примерах патчей, применённых к восьми приложениям из онлайнового репозитория открытого кода GitHub. Анализ 777 ошибок и соответствующих исправлений позволил выявить общие закономерности и затем применить приобретённый опыт для корректирования недочетов в другом наборе программ.

В основу Prophet положен алгоритм, разработанный Фань Луном ранее. Он пытался исправить ошибки систематически модифицируя программный код, но тратил на достижение результата неприемлемо много времени. Новая система машинного обучения оптимизирует использование этого алгоритма. Она сначала выстраивает возможные патчи по вероятности их пригодности и только затем приступает к отнимающим основное время тестам.

В испытаниях на 69 реальных дефектах кода восьми популярных открытых программ, Prophet превзошла другие системы по эффективности примерно в 10 раз. Там где они исправляли одну или две ошибки, Prophet устраняла 15-18, в зависимости от того, останавливали ли её после применения первого решения или разрешали работать дальше. Обнаружение оставшихся 50 ошибок требовало выявления логических несоответствий в масштабах всей программы, что было недоступно для текущей версии алгоритма Фань Луна.

«Один из самых интригующих аспектов этого исследования состоит в том, что нами были обнаружены универсальные свойства правильного кода, которые можно изучить на одном наборе приложений и применить к другому набору, – подчеркнул профессор Ринар. – Способность распознавать правильный код имеет огромное значение для всех программных технологий».

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT