Создана технология управления дроном при помощи человеческих движений

Создана система управления дроном движением корпуса

Создана технология управления дроном при помощи человеческих движений

Управлять дроном телом оказалось проще, чем джойстиком.

Alain Herzog/École Polytechnique Fédérale de Lausanne

Управлять дроном движениями туловища проще, чем джойстиком; к такому выводу пришла группа исследователей из Федеральной политехнической школы в Лозанне (EPFL), собравшая отзывы добровольцев о системе управления виртуальными и реальными аппаратами с помощью движений тела.

Согласно отзывам участников эксперимента, управление дроном с помощью наклонов корпуса более интуитивно, чем работа пальцами с джойстиком, и позволяет переключить внимание на поиск целей и контроль за обстановкой. Оператор спасательного дрона, управляемого такой системой, сможет более внимательно разглядывать место катастрофы и искать пострадавших, считают авторы разработки.

Кроме того, навык управления аппаратом движениями туловища формируется быстрее, чем навык ручного управления.

«Джойстик — тоже отличный способ управления, и пилоты гоночных дронов показывают с его помощью отличные результаты.

Но мы заметили, что некоторым людям бывает сложно научиться управляться с джойстиком, это требует большой сосредоточенности», — объясняет Дженнифер Мильбрадт (Jenifer Miehlbradt,), одна из авторов исследования.

Мильбрадт и ее коллега, нейробиолог Сильвестро Мицера (Silvestro Micera) создали более интуитивный интерфейс человек-дрон.

Сначала ученые пригласили 17 добровольцев, разместили на их телах ИК-метки и попросили следовать за дроном, летящим по виртуальному пространству, двигая телом — так, как казалось удобным.

Один человек сразу принял позу супермена — вытянул руки вперед, другой поплыл по воздуху кролем, но остальные предпочли слегка наклонять корпус в нужную сторону.

Alain Herzog/École Polytechnique Fédérale de Lausanne

Затем ученые разработали систему, считываюую движения корпуса и транслирующую их в команды для дрона. Сначала добровольцы опробовали ее в охоте на белые облачка в виртуальной реальности с виртуальным дроном:

На втором этапе систему испытали с настоящим квадрокоптером и очками, на которые проецировалось изображение с камеры дрона. Коптер должен был медленно пройти небольшую полосу препятствий.

Управлять дроном телом оказалось легче, сообщили участники эксперимента; кроме того, во время пилотирования они переживали ощущение полета. По словам добровольцев, на то, чтобы привыкнуть к системе, у них ушла всего минута-другая; после этого все было очень просто.

Описание системы и эксперимента опубликовано в PNAS.

Движения тела и виртуальная реальность помогут новичкам освоить управление дроном

Создана технология управления дроном при помощи человеческих движений

Jenifer Miehlbradt et al. / PNAS, 2018

Швейцарские инженеры разработали систему, позволяющую управлять дроном с помощью движений тела и видеть изображение с его камеры в шлеме виртуальной реальности.

Испытания системы показали, что неподготовленные пользователи быстро привыкают к системе и управляют дроном точнее, чем помощью обычного контроллера, рассказывают разработчики в журнале Proceedings of the National Academy of Sciences.

Практически всегда управление дроном или роботом происходит с помощью операторского пульта с несколькими кнопками или джойстиками. К примеру, пульты управления дронами, как правило, оборудованы двумя стиками, один из которых отвечает за перемещение по высоте и повороты, а другой за перемещение в горизонтальной плоскости.

Поскольку это сильно отличается от естественных человеческих движений при ходьбе, к такому управлению приходится долго привыкать.

Некоторые инженеры пытались решить эту проблему с помощью альтернативных устройств, например, специальной перчатки и контроллера с виброотдачей, реагирующих на наклоны руки, но такие способы управления все равно недостаточно интуитивны.

Группа инженеров из Швейцарии и Италии под руководством Сильвестро Мичеры (Silvestro Micera) из Федеральной политехнической школы Лозанны разработала систему, позволяющая использовать для управления дроном только движения тела. Поскольку цель работы заключалась в создании максимально удобной для пользователей схемы управления, сначала инженеры решили выяснить, какие движения люди считают наиболее естественными для управления летательным аппаратом.

Во время эксперимента 17 участникам с надетым шлемом виртуальной реальности показывали компьютерную симуляцию полета дрона и просили повторить маневры дрона (полет вперед, повороты и изменения высоты) с помощью подходящих по их мнению движений тела. В это время исследователи считывали показания датчиков мышечных сокращений на верхней части тела, а также отслеживали положения частей тела и смещение центра масс с помощью визуальных маркеров на теле и камер вокруг испытуемых.

Оказалось, что практически все участники исследования придерживались одной из двух схем управления: одна группа «управляла» дроном только с помощью поворотов корпуса, а вторая не только поворачивала корпус, но и активно наклоняла руки в ту или иную сторону. Несмотря на то, что часть добровольцев выбрала другие способы управления, например, один из них пытался грести руками в направлении движения, исследователи в дальнейшем сконцентрировались именно на двух наиболее популярных схемах.

После выявления оптимальных способов управления инженеры проверили их на деле. В первом тестировании добровольцы управляли дроном в виртуальном мире и должны были пролетать через контрольные точки, используя одну из двух схем управления.

Авторы сравнивали эффективность управления с помощью тела с результатами предыдущего исследования, в котором применялась аналогичная виртуальная среда и квадрокоптер, а управление производилось с помощью обычного операторского пульта и симулятора полета птицы Birdly.

Выяснилось, что способ управления с помощью отклонений корпуса без активного участия рук оказался эффективнее, чем аналогичный способ с участием рук или управление с пульта оператора, а также сравним с управлением с помощью Birdly.

Во время последнего эксперимента исследователи проверили переносимость навыка управления корпусом на реальный мир и проверили его на настоящем квадрокоптере.

Оказалось, что пользователям комфортно управлять таким образом и пролетать через кольца-контрольные точки, а эффективность пролета оказалось высокой — 87,67 ± 9,88%.

Швейцарские инженеры — далеко не первые, кто пытается упростить управление мультикоптерами. В 2016 году южнокорейская компания This is engineering представила контроллер для дронов, позволяющий управлять дроном с помощью одной руки.

Он состоит из основной части контроллера и кольца, перемещая которое можно задавать движение дрона.

А один из крупнейших производителей дронов DJI в 2016 году представил складной квадрокоптер Mavic, который, помимо необычной конструкции, отличается от аналогов умением распознавать простые жесты пользователя и реагировать на них соответствующим образом, к примеру, делать снимок на камеру.

Григорий Копиев

Управление дронами с помощью приложений для распознавания речи на основе Intel RealSense SDK

Создана технология управления дроном при помощи человеческих движений

В новостях рассказывают о дронах — беспилотных летательных аппаратах — буквально каждый день. Области применения у них самые разные: разведка и боевые операции, фото- и видеосъемка, да и просто развлечения. Технология дронов достаточно новая и заслуживает интереса.

Разработчики могут создавать приложения для управления дронами. Дрон в конечном итоге является обычным программируемым устройством, поэтому к нему можно подключаться и отдавать команды для выполнения нужных действий с помощью обычных приложений для ПК и смартфонов.

Для этой статьи я выбрал один из дронов с самыми мощными возможностями программирования — AR.Drone 2.0 компании Parrot.

Мы узнаем, как взаимодействовать с таким дроном и управлять им с помощью библиотеки, написанной на C#. Опираясь на эту основу, мы добавим речевые команды для управления дроном с помощью Intel RealSense SDK.

Модель AR.Drone 2.0 компании Parrot — один из наиболее интересных дронов, предлагаемых на рынке для энтузиастов. Этот дрон обладает множеством функций и включает встроенную систему помощи с интерфейсами стабилизации и калибровки. Дрон оснащен защитным каркасом из прочного пенополистирола, предохраняющим лопасти винтов и движущиеся части в случае падения или столкновения с неподвижными препятствиями.
AR.Drone* 2.0 компании Parrot Оборудование дрона обеспечивает его подключение по собственной сети Wi-Fi* к внешним устройствам (смартфонам, планшетам, ПК). Протокол связи основан на АТ-подобных сообщениях (подобные команды несколько лет назад использовались для программирования модемов для связи по телефонной сети). С помощью этого простого протокола можно отправлять дрону все команды, необходимые для взлета, подъема или спуска, полета в разных направлениях. Также можно считывать поток изображений, снятых камерами (в формате высокой четкости), установленными на дроне (одна камера направлена вперед, другая — вниз), чтобы сохранять отснятые в полете фотографии или записывать видео. Компания-производитель предоставляет несколько приложений для пилотирования дрона вручную, но намного интереснее узнать, как добиться автономного управления полетом. Для этого я решил (при содействии моего коллеги Марко Минерва) создать интерфейс, который позволил бы управлять дроном с разных устройств.
У дрона есть собственная сеть Wi-Fi, поэтому подключимся к ней для передачи команд управления. Всю нужную информацию мы нашли в руководстве для разработчиков AR.Drone 2.0. Например, в руководстве сказано, что нужно отправлять команды по протоколу UDP на IP-адрес 192.168.1.1, порт 5556. Это простые строки в формате AT:

  • AT * REF — управление взлетом и посадкой;
  • AT * PCMD — движение дрона (направление, скорость, высота).

После подключения к дрону мы создадим своего рода «игру», в которой будем отправлять команды дрону на основе входных данных приложения. Попробуем создать библиотеку классов. Сначала нужно подключиться к устройству.public static async Task ConnectAsync(string hostName = HOST_NAME, string port = REMOTE_PORT) { // Set up the UDP connection. var droneIP = new HostName(hostName); udpSocket = new DatagramSocket(); await udpSocket.BindServiceNameAsync(port); await udpSocket.ConnectAsync(droneIP, port); udpWriter = new DataWriter(udpSocket.OutputStream); udpWriter.WriteByte(1); await udpWriter.StoreAsync(); var loop = Task.Run(() => DroneLoop()); }
Как уже было сказано ранее, нужно использовать протокол UDP, следовательно, нужен объект DatagramSocket. После подключения с помощью метода ConnectAsync мы создаем DataWriter в выходном потоке для отправки команд. И наконец, мы отправляем первый байт по Wi-Fi. Он служит только для инициализации системы и будет отброшен дроном. Проверим команду, отправленную дрону. private static async Task DroneLoop() { while (true) { var commandToSend = DroneState.GetNextCommand(sequenceNumber); await SendCommandAsync(commandToSend); sequenceNumber++; await Task.Delay(30); } }

Тег DroneState.GetNextCommand форматирует строковую АТ-команду, которую нужно отправить устройству. Для этого нужен порядковый номер: дрон ожидает, что каждая команда сопровождается порядковым номером, и игнорирует все команды, номера которых меньше или равны номерам уже полученных команд.

После этого мы используем WriteString для отправки в поток команд через StreamSocket, при этом StoreAsync записывает команды в буфер и отправляет их. И наконец, мы увеличиваем порядковый номер и используем параметр Task Delay, чтобы ввести задержку в 30 миллисекунд перед следующей итерацией.

Класс DroneState определяет, какую команду отправить. public static class DroneState { public static double StrafeX { get; set; } public static double StrafeY { get; set; } public static double AscendY { get; set; } public static double RollX { get; set; } public static bool Flying { get; set; } public static bool isFlying { get; set; } internal static string GetNextCommand(uint sequenceNumber) { // Determine if the drone needs to take off or land if (Flying && !isFlying) { isFlying = true; return DroneMovement.GetDroneTakeoff(sequenceNumber); } else if (!Flying && isFlying) { isFlying = false; return DroneMovement.GetDroneLand(sequenceNumber); } // If the drone is flying, sends movement commands to it. if (isFlying && (StrafeX != 0 || StrafeY != 0 || AscendY != 0 || RollX != 0)) return DroneMovement.GetDroneMove(sequenceNumber, StrafeX, StrafeY, AscendY, RollX); return DroneMovement.GetHoveringCommand(sequenceNumber); } }
Свойства StrafeX, StrafeY, AscendY и RollX определяют соответственно скорость движения влево и вправо, вперед и назад, высоту и угол вращения дрона. Эти свойства имеют тип данных Double, допустимые значения — от 1 до -1. Например, если задать для свойства StrafeX значение -0,5, то дрон будет перемещаться влево с половиной максимальной скорости; если задать 1, то дрон полетит вправо с максимальной скоростью.

Переменная Flying определяет взлет и посадку. В методе GetNextCommand мы проверяем значения этих полей, чтобы определить, какую команду отправить дрону. Эти команды, в свою очередь, находятся под управлением класса DroneMovement.

Обратите внимание, что, если команды не заданы, последняя инструкция создают так называемую команду Hovering. Это пустая команда, поддерживающая открытый канал связи между дроном и устройством. Дрон должен постоянно получать сообщения от управляющего им приложения, даже если не нужно выполнять никаких действий и ничего не изменилось.

Самый интересный метод класса DroneMovement — метод GetDroneMove, который фактически и занимается составлением и отправкой команд дрону. Другие методы, связанные с движением, см. в этом примере.

public static string GetDroneMove(uint sequenceNumber, double velocityX, double velocityY, double velocityAscend, double velocityRoll) { var valueX = FloatConversion(velocityX); var valueY = FloatConversion(velocityY); var valueAscend = FloatConversion(velocityAscend); var valueRoll = FloatConversion(velocityRoll); var command = string.Format(“{0},{1},{2},{3}”, valueX, valueY, valueAscend, valueRoll); return CreateATPCMDCommand(sequenceNumber, command); }
private static string CreateATPCMDCommand(uint sequenceNumber, string command, int mode = 1) { return string.Format(“AT*PCMD={0},{1},{2}{3}”, sequenceNumber, mode, command, Environment.NewLine); }
Метод FloatConversion не указан здесь, но он преобразует значение типа Double диапазона от -1 до 1 в целочисленное значение со знаком, которое может быть использовано АТ-командами, например строкой PCMD для управления движением.

Показанный здесь код доступен в виде бесплатной библиотеки на сайте NuGet (AR.Drone 2.0 Interaction Library). Эта библиотека предоставляет все необходимое для управления — от взлета до посадки.

Пользовательский интерфейс AR.Drone UI на сайте NuGet Благодаря этому образцу приложения можно забыть о тонкостях реализации и сосредоточиться на создании приложений, которые дают нам возможность пилотировать дрон, используя разные способы взаимодействия.
Теперь посмотрим на одну из самых интересных и удобных в использовании (для меня) возможностей Intel RealSense SDK — распознавание речи. В SDK поддерживается два подхода к распознаванию речи.

  • Распознавание команд (по заданному словарю).
  • Распознавание свободного текста (диктовка).

Первый подход представляет собой своего рода список команд, заданный приложением, на указанном языке, который обрабатывается «распознавателем». Все слова, которых нет в списке, игнорируются. Второй подход — что-то типа диктофона, «понимающего» любой текст в свободной форме. Этот подход идеален для стенографирования, автоматического создания субтитров и т. п. В этом проекте мы используем первый вариант, поскольку требуется поддерживать конечное количество команд, отправляемых дрону. Сначала нужно определить некоторые переменные. private PXCMSession Session; private PXCMSpeechRecognition SpeechRecognition; private PXCMAudioSource AudioSource; private PXCMSpeechRecognition.Handler RecognitionHandler;

Session — тег, необходимый для доступа к вводу-выводу и к алгоритмам SDK, поскольку все последующие действия унаследованы от этого экземпляра.
SpeechRecognition — экземпляр модуля распознавания, созданного функцией CreateImpl в среде Session.
AudioSource — интерфейс устройства, позволяющий установить и выбрать входное аудиоустройство (в нашем примере кода мы для простоты выбираем первое доступное аудиоустройство).
RecognitionHandler — фактический обработчик, назначающий обработчик событий для события OnRecognition.

Теперь инициализируем сеанс, AudioSource и экземпляр SpeechRecognition.

Session = PXCMSession.CreateInstance(); if (Session != null) { // session is a PXCMSession instance. AudioSource = Session.CreateAudioSource(); // Scan and Enumerate audio devices AudioSource.ScanDevices(); PXCMAudioSource.DeviceInfo dinfo = null; for (int d = AudioSource.QueryDeviceNum() – 1; d >= 0; d–) { AudioSource.QueryDeviceInfo(d, out dinfo); } AudioSource.SetDevice(dinfo); Session.CreateImpl(out SpeechRecognition);
Как было отмечено ранее, для простоты кода мы выбираем первое доступное аудиоустройство.PXCMSpeechRecognition.ProfileInfo pinfo; SpeechRecognition.QueryProfile(0, out pinfo); SpeechRecognition.SetProfile(pinfo);

Затем нужно опросить систему, узнать фактический параметр конфигурации и назначить его переменной (pinfo). Также нужно настроить ряд параметров в профиле, чтобы изменить язык распознавания. Задайте уровень достоверности распознавания (при более высоком значении требуется более уверенное распознавание), интервал окончания распознавания и т. д.

В нашем случае параметр по умолчанию устанавливается как в профиле 0 (полученном из Queryprofile).

String[] cmds = new String[] { “Takeoff”, “Land”, “Rotate Left”, “Rotate Right”, “Advance”, “Back”, “Up”, “Down”, “Left”, “Right”, “Stop” , “Dance”}; int[] labels = new int[] { 1, 2, 4, 5, 8, 16, 32, 64, 128, 256, 512, 1024 }; // Build the grammar. SpeechRecognition.BuildGrammarFromStringList(1, cmds, labels); // Set the active grammar. SpeechRecognition.SetGrammar(1);

Затем задаем грамматический словарь для обучения системы распознавания. С помощью BuildGrammarFromStringList мы создаем простой список глаголов и соответствующих возвращаемых значений, определяя грамматику номер 1. Можно задать несколько грамматик для использования в приложении и включать одну из них при необходимости, поэтому можно создать разные словари команд для всех поддерживаемых языков и предоставить пользователю возможность переключаться между языками, распознаваемыми в SDK. В этом случае нужно установить соответствующие DLL-файлы поддержки языка, поскольку при установке SDK по умолчанию устанавливается поддержка только для языка «Английский (США)». В этом примере мы используем только грамматику, установленную по умолчанию вместе с языком «Английский (США)».

Затем выбираем, какую грамматику следует назначить активной в экземпляре SpeechRecognition.

RecognitionHandler = new PXCMSpeechRecognition.Handler(); RecognitionHandler.onRecognition = OnRecognition;

Эти инструкции определяют новый обработчик событий для события OnRecognition и назначают его методу, описанному ниже. public void OnRecognition(PXCMSpeechRecognition.RecognitionData data) { var RecognizedValue = data.scores[0].label; double movement = 0.3; TimeSpan duration = new TimeSpan(0, 0, 0, 500); switch (RecognizedValue) { case 1: DroneState.TakeOff(); WriteInList(“Takeoff”); break; case 2: DroneState.Land(); WriteInList(“Land”); break; case 4: DroneState.RotateLeftForAsync(movement, duration); WriteInList(“Rotate Left”); break; case 5: DroneState.RotateRightForAsync(movement, duration); WriteInList(“Rotate Right”); break; case 8: DroneState.GoForward(movement); Thread.Sleep(500); DroneState.Stop(); WriteInList(“Advance”); break; case 16: DroneState.GoBackward(movement); Thread.Sleep(500); DroneState.Stop(); WriteInList(“Back”); break; case 32: DroneState.GoUp(movement); Thread.Sleep(500); DroneState.Stop(); WriteInList(“Up”); break; case 64: DroneState.GoDown(movement); Thread.Sleep(500); DroneState.Stop(); WriteInList(“Down”); break; case 128: DroneState.StrafeX = .5; Thread.Sleep(500); DroneState.StrafeX = 0; WriteInList(“Left”); break; case 256: DroneState.StrafeX = -.5; Thread.Sleep(500); DroneState.StrafeX = 0; WriteInList(“Right”); break; case 512: DroneState.Stop(); WriteInList(“Stop”); break; case 1024: WriteInList(“Dance”); DroneState.RotateLeft(movement); Thread.Sleep(500); DroneState.RotateRight(movement); Thread.Sleep(500); DroneState.RotateRight(movement); Thread.Sleep(500); DroneState.RotateLeft(movement); Thread.Sleep(500); DroneState.GoForward(movement); Thread.Sleep(500); DroneState.GoBackward(movement); Thread.Sleep(500); DroneState.Stop(); break; default: break; } Debug.WriteLine(data.grammar.ToString()); Debug.WriteLine(data.scores[0].label.ToString()); Debug.WriteLine(data.scores[0].sentence); // Process Recognition Data }
Это метод получения значения, возвращенного из данных распознавания, и выполнения соответствующей команды (в нашем случае — соответствующей команды управления полетом дрона).

Каждая команда дрона относится к вызову DroneState с определенным методом (TakeOff, GoUp, DoDown и т. д.) и с определенным параметром движения или длительности, который в каждом случае касается определенного количества или длительности движения.

Некоторым командам требуется явный вызов метода Stop для остановки текущего действия, иначе дрон продолжит двигаться согласно полученной команде (команды см. в предыдущем фрагменте кода).

В некоторых случаях нужно вставить Thread.Sleep между двумя разными командами, чтобы дождаться завершения предыдущего действия перед отправкой новой команды.

Для проверки распознавания, даже если нет доступного дрона, я вставил переменную (она управляется флажком в главном окне), которая включает функциональный режим Drone Stub (в этом режиме команды создаются, но не отправляются).

Чтобы закрыть приложение, вызовите метод OnClosing для закрытия и уничтожения всех экземпляров и обработчиков и для общей очистки системы.

В коде содержатся некоторые команды отладки, выводящие полезную информацию в окнах отладки Visual Studio* при тестировании системы. В этой статье мы увидели, как взаимодействовать с устройством (таким сложным, как дрон) с помощью интерфейса взаимодействия на естественном языке.

Мы увидели, как можно создать простой словарь команд, научить систему понимать его и соответственным образом управлять сложным устройством — дроном в полете. Показанное в этой статье — лишь малая доля доступных возможностей по управлению дроном. Возможности поистине безграничны.

Оригинал статьи

Технологии управления устройствами взглядом и жестами

Создана технология управления дроном при помощи человеческих движений

Такие современные устройства ввода, как клавиатура или мышь, уже давно стали атрибутами нашей повседневной жизни. И надо сказать, что клавиатура и мышь прекрасно справляются со своей работой.

То же самое касается и сенсорного управления, повсеместно используемого в различных гаджетах и мобильных компьютерах. Однако тактильный, осязательный метод – это далеко не единственная возможность взаимодействия человека и компьютера.

Ведь для общения друг с другом люди могут использовать взгляд, голос или жесты.

Все это может быть применимо и в отношении взаимодействия человека с компьютерами и бытовыми устройствами. Во всяком случае, дизайнеры и инженеры уже давно работают над тем, чтобы предложить пользователям что-то новое, интересное в плане управления компьютером.

Многие эксперты полагают, что в будущем человек сможет общаться с компьютерными системами только посредством своих традиционных «средств коммуникации». Пока же реализуются только первые шаги в этом направлении.

В этой статье остановимся на самых интересных технологиях.

Технология Kinect. Отслеживание движений

Одна из самых продвинутых технологий в этой области является Kinect от компании Microsoft. Kinect представляет собой аксессуар для приставки Xbox 360, считывающий все движения человека и позволяет ему действовать в дополненной игровой реальности без контроллеров вообще.

Нужно отметить, что устройства, отслеживающие положение тела человека, начали разрабатываться уже достаточно давно, однако их проблемой было то, что для отслеживания жестов и движений пользователя последнему нужно было занять эталонную позу.

Отчасти эту проблему удалось решить разработчикам Microsoft, которые в конце 2010 года представили публике  интерактивный контроллер Kinect, предоставляющий возможность взаимодействовать с консолью без помощи традиционного контроллера в виде джойстика.

В данном случае управление осуществляется через устную речь и определенные позы тела.

Как же работает технология Kinect? В устройстве размещаются два сенсора. Один из них является инфракрасным, его предназначение – «прощупывание» окружающего пространства.

Второй сенсор помогает преобразовать полученные данные в 3D-проекцию и далее обеспечить отслеживание движений человека внутри нее. Встроенный процессор измеряет по всему полю зрения сенсора расстояния от камеры до сцены.

Система «видит» и записывает человека как набор движущихся точек, причем данные считываются каждую десятую долю секунды.

В игровом процессе она определяет, где располагаются руки, ноги и голова пользователя, автоматически подбирая для него наиболее подходящий виртуальный скелет. На основе информации о движении тела игрока и подобранного скелета формируется своеобразный 3D персонаж, который участвует в игре.

Конечно, технология отслеживания движений и жестов, а также бесконтактного управления контентом Kinect  с самого начала продемонстрировала определенные недостатки. Далеко не всегда система отслеживает действия человека так, как этого бы хотелось разработчикам технологии.

Тем не менее, технология Kinect постоянно совершенствуется и находит свое применение уже за пределами игровой индустрии. В частности, с помощью Kinect сегодня можно проводить эффектные мультимедийные презентации, не пользуясь никакими устройствами ввода или контроллерами.

Технология способна работать  с любыми проекционными системами, плазменными и ЖК-панелями. В данном случае пользователь может управлять любым контентом, не касаясь рукой дисплея, только лишь взмахами руки.

В компании Microsoft удовлетворены развитием своей технологии и надеются уже в самом ближайшем будущем использовать Kinect в различных мобильных гаджетах и смартфонах.

LeapMotion

Альтернативной Kinect  в области управления жестами является технология LeapMotion, которая, по словам ее разработчиков, способна гораздо более точно отслеживать движения пользователя.

Устройство для управления жестами называется Leap, его главное предназначение – заменить традиционную мышку или сенсорный дисплей для управления компьютером.

Перед устройством образуется мнимый куб со стороной примерно 61 сантиметр, в котором пользователь располагает свои руки для работы. В этом пространстве Leap отслеживает движения и жесты человека с высокой точностью.

Устройство распознает все десять пальцев, причем точность их передвижения улавливается до долей миллиметра. Задержки здесь практически сведены к минимуму.  Хотя лаги, конечно, случаются, однако само расположение руки в пространстве устройство определяет довольно точно – вплоть до 0,01 миллиметра.

Интересно, что само устройство Leap представляет собой очень скромную, компактную коробочку размером с обычную флешку. К компьютеру Leap подключается посредством кабеля USB.

Далее нужно только установить специальное программное обеспечение, которое можно загрузить с официального сайта, и зарегистрировать устройство.

Правда, пока доступных и интересных приложений под LeapMotion не так много, поэтому устройство можно рассматривать только как своего рода игрушку для любителей самых передовых технологий.

Однако для LeapMotion уже открылась широкая область применения – она может быть реализована в различных мобильных компьютерах и гаджетах. Например,  зачем покупать дорогостоящий ноутбук с сенсорным экраном, когда можно просто подключить к своему старенькому мобильному ПК через USB-порт контроллер LeapMotion и получить потрясающие возможности управления.

На сегодняшний день LeapMotion является одной из самых лучших технологий для отслеживания движений и управления компьютером без прикосновений. Она опять-таки постоянно развивается и в последних версиях данной системы захват движений стал еще более реалистичным, плюс были решены разные мелкие проблемы. Причем положительные изменения были достигнуты сугубо программными средствами.

Технология LeapMotion не могла не привлечь внимание производителей мобильных компьютеров. В частности, уже выпущен в продажу ноутбук HP Envy 17 LeapMotion SE со встроенной технологией управления жестами LeapMotion. Помимо обычных устройств ввода, этот ноутбук предлагает пользователю возможность управлять происходящим на экране, просто махнув рукой или пошевелив пальцами.

Интегрированный модуль LeapMotion специально разрабатывался для встраивания в мобильные устройства и поэтому получился на семьдесят процентов меньше предшествующей версии.

Контроллер размещается под клавиатурой и позволяет с помощью простых жестов и движений руками совершать стандартные операции, например, прокручивание списков, увеличение масштаба фотоизображений и многое другое.

Tobii EyeMobile. Управление взглядом

Шведская компания TobiiTechnology в конце 2013 года представила публике свое новое творение – это гаджет EyeMobile, с помощью которого можно работать на Windows-планшетах, используя не жесты, а только взгляд. Устройство основано на действии невидимого инфракрасного излучения.

Основное предназначение EyeMobile заключается в том, чтобы помочь взаимодействовать с планшетом тем людям, у кого имеются серьезные проблемы со здоровьем. Речь идет, прежде всего, о больных параличом, людях с травмами в области спинного мозга или заболеваниями двигательных нейронов. Таким людям с трудом удается поднимать руки, чтобы поводить ими по сенсорному дисплею.

Впрочем, новинка может понравиться и поклонникам высоких технологий, кто гоняется за покупкой самых инновационных устройств.

Гаджет EyeMobile способен работать с Windows-планшетами, например, с SurfacePro., а также с обычными компьютерами и ноутбуками, на которых установлена полноценная Windows. Он идет в комплекте с подставкой, позволяющей прикрепить планшет к столу и взаимодействовать с мобильным компьютером через USB-порт. При этом устройство располагается в нижней части этой подставки.

Принцип работы EyeMobile заключается в использовании двух камер, отслеживающих движение глаз пользователя. Тем самым, устройство позволяет выполнять стандартные операции только движением глаз.

Например, выбор нужного пункта из списка или прокручивание Интернет-страниц. Устройство плавно следует за глазами человека, когда он читает страницу. Данная технология пока имеет определенные минусы, главным из которых остается высокая цена.

За EyeMobile придется заплатить более четырех тысяч долларов.

iMotion

Еще одна инновационная разработка в этой области – контроллер iMotion, который дает возможность управлять компьютерами и телевизорами с интегрированной камерой без прикосновений. Для выполнения простых команд достаточно лишь нескольких жестов.

iMotion является универсальным устройством, поддерживающим разнообразные приложения и игры на ПК, мобильные приложения iOS и Android.

Обычный телевизор в доме он может превратить в «умный» TV, в котором вместо пульта ДУ будет использоваться удобное жестовое управление.

Технология предусматривает создание виртуального сенсорного дисплея перед человеком и обеспечении функции тактильной обратной связи, чтобы пользователь мог получить физическое ощущение прикосновения к виртуальному объекту в игровом процессе или при работе с приложением.

Само устройство выглядит как перчатка, которую просто нужно надеть на кисть. В этой перчатке имеются три ярких светодиода, которые размещаются в виде треугольника. Веб-камера призвана отслеживать их движение.

iMotion способен распознавать команды в виде перемещения, вращения руки на дистанции до 5 метров от камеры.

Примечательно, что с самого начала iMotion задумывался исключительно как тренажер для обучения людей, в частности, стрельбе из оружия. Но потом концепция проекта поменялась и теперь это универсальное устройство может использоваться как интересное дополнение к игровой консоли, замена пульта ДУ для телевизора или удобный способ управления компьютером.

The EyeTribeTracker. Устройство управления при помощи глаз

В заключение, стоит упомянуть об инновационном устройстве от датской компании The EyeTrіbe, которое позволяет управлять планшетами и мобильными телефонами только с помощью взгляда. Кстати, эта компания была основана простыми студентами, посещавшими Институт информационных технологий в Копенгагене.

Устройство TheEyeTribeTracker основывается на применении инфракрасного излучения, которое проецируется на зрачок человека и позволяет камере отслеживать любые его движения. Помимо этого, здесь используется революционное решение, направленное на предсказывание направление движения глаз пользователя.

Когда пользователь переводит взгляд с одной точки на другую, устройство получает команды на переход к соответствующим деталям пользовательского интерфейса. При этом моргания и подмигивания понимаются устройство как нажатие кнопки мыши. Для того, чтобы пользоваться возможностями устройства, человек должен располагаться от него на расстоянии от 45 до 75 сантиметров.

Есть и другое условие —  для корректной работы диагональ планшетного компьютера или смартфона не должна превышать 24 дюйма. Подсоединяется устройство к мобильным гаджетам через USB-порт.

С помощью этого девайса и управления взглядом можно просматривать страницы в глобальной сети и работать с приложениями.

Датская компания призывает производителей планшетных компьютеров и смартфонов внедрять данную разработку.

Разработан способ управления дроном используя движение тела

Создана технология управления дроном при помощи человеческих движений

Придуман способ управления дроном движениями тела Исследователи Федеральной политехнической школы Лозанны (EPFL) придумали новый способ управления беспилотниками. Для этого нужно использовать датчики и естественные движения рук, передаёт Engadget. Чтобы разработать новый метод, специалисты разместил…

«Аватар» современности попал на видео: ученые нашли способ управления дроном движениями тела «Аватар» современности попал на видео. Как известно, для пилотирования беспилотника больше не нужно использовать джойстики и проходить сложные виды обучения. Достаточно применить новую технологию. Специалисты Федеральной политехни…

Создана система управления дроном движением корпуса Управлять дроном телом оказалось проще, чем джойстиком.

В России создадут «виртуальный офшор» для экспорта услуг ЦОД Программа «Цифровая экономика» предусматривает ряд инициатив по развитию в России рынка ЦОД. «Ростелеком» и «Росатом» построят федеральную сеть ЦОДов стоимостью 22 млрд руб. Также будут созданы платформа «Гособлако» для хранения данных госорганов, «В…

Disney научила виртуального персонажа копировать движения человека Разработчики создали приложение для смартфонов, которое для копирования поз использует камеру. При этом для распознавания движений человека не используются датчики на теле.   Компания Disney научила виртуального персонажа копировать движения человека…

Спасатель робот-кентавр поразил своими возможностями В Сети набрало популярность видео, которое наглядно демонстрирует способности робототехнической системы, внешне похожей на мифического кентавра.   Создали робота-кентавра ученые из Итальянского технологического института совместно со специалистами Бо…

В Японии создали дополнительные руки, управляемые другим человеком Японские инженеры создали дополнительную пару рук, которая управляется удаленно с помощью шлема виртуальной реальности. Устройство можно использовать для удаленного выполнения операций или обучения, рассказали разработчики в MIT Technoogy Review. Раз…

Disney создал уникального виртуального персонажа, повторяющего движения человека Компания Disney разработала мобильное приложение, в котором виртуальный герой копирует движения человека с помощью камеры.

Lockheed Martin испытали систему управления дронами на авианосце Испытания разработки прошли успешно. Специалисты провели, как себя ведет система в наиболее сложных условиях.   Специалисты компании Lockheed Martin из США провели для ВВС испытания новой системы управления дронами на авианосце. Отметим, что данная с…

Игра «Виртуальный Эйнштейн» поможет неуверенным людям поумнеть Ученые провели исследование и выяснили, что представление себя знаменитым ученым помогает людям с низкой самооценкой раскрыть внутренний потенциал. Специалисты Барселонского университета провели необычный эксперимент для того, чтобы выяснить, как изм…

Создан костюм для виртуальной реальности из фильма «Первому игроку приготовиться» Тот самый наряд, который отслеживал движения и казался нереальным, теперь доступен любому – в ноябре этого года стартуют продажи. На Kickstarter собирали деньги на его создание и все получилось: 52 000 долларов, когда нужно было только 50 000, так чт…

В США нейросеть заменит реальных баскетболистов на площадке Все дело в том, что американские девелоперы разработали особого виртуального агента, в список возможностей которого входят баскетбольные движения и ряд трюков.   В основу данного агента вкладывается две нейросети, которые отвечают за элементарное пла…

Ученые: микроэлектронные датчики можно печатать на желатине Немецкие ученые создали абсолютно новую технологию, которая поможет упростить работу медикам. О недуге теперь будут сообщать специальные микросхемы из желатина в виде конфет. Исследователи из Технического университета Мюнхена (Германия) несколько ле…

Новосибирские ученые разрабатывают очки для управления роботами Новосибирские ученые занимаются очень интересным делом: они разрабатывают 3D-очки, позволяющие оператору видеть как бы глазами робота. Об этом рассказал заместитель генерального директора холдинга “Швабе” Сергей Попов. Уникальные разработки ведутся …

Мини-дрон “таракан” HAMR заинтересовал Пентагон. Полтора грамма технологий Специалисты Гарвардского университета Бенджамин Голдберг и Хунцзян Ванг провели исследование в области создания подводных роботизированных систем по программе научно-исследовательского управления военного университета Минобороны США. Перед учёными ст…

Ученые разработали шлем виртуальной реальности для слепых. Он поможет им снова видеть Американские инженеры разработали шлем виртуальной реальности, увеличивающий остроту зрения. Это поможет людям с возрастной  макудистрофией. Заболевание является главной причиной потери зрения у людей после 50 лет. 

Европейские инженеры создали робота-кентавра (ВИДЕО) Четырехногий колесный робот с торсом и двумя руками предназначен для выполнения различных задач при проведении спасательных работ. Для управления им инженеры планируют использовать систему, включающую экзоскелет и шлем виртуальной реальности.

Ученые научили робота-гепарда преодолевать препятствия вслепую Американские инженеры усовершенствовали Cheetah 3. Новинка умеет подниматься по лестнице, на которой находится много сторонних движущихся предметов, без помощи визуальных датчиков и заданных сведений. Несмотря на обилие изобретений по типу робота-геп…

Magic Leap продемонстрировала интерфейс Lumin OS для очков дополненной реальности Компания предоставила презентацию с обновленными функциями для Lumin OS и заверила, что совсем скоро пользователи смогут их опробовать. Компания Magic Leap представила интерфейс операционной системы Lumin OS, которую обычно используют в очках дополне…

Ученые создали управляемые человеком дополнительные руки Японские инженеры создали роботизированные руки, которые управляется удаленно с помощью шлема виртуальной реальности, сообщает компания MIT Technoogy Review. Устройство будет представлено на конференции SIGGRAPH 2018.

В Томске создали высокоточную систему распознавания лиц Система распознавания лиц совершенствуется на протяжении 40 лет, однако она все еще не идеальна. Эксперты из Томска сделали шаг навстречу успеху. В Томске ученые создали высокоточную систему, которая позволит пользователям распознавать лица. В компан…

В США придумали альтернативу светофорам Исследователей из Университета Карнеги-Меллон предложили использовать автоматический сигнал между автомобилями. Ученые использовали встроенную в бортовой компьютер автомобиля систему обмена данными. Она осуществляет передачу информации о GPS-координа…

Светофоров не будет: разработан способ избежать пробок «Дорога будущего» уже тестируется в США.Американские ученые разработали систему, которая не только позволит избежать пробок на дороге, но и избавит человечество от светофоров. Новый вид дорог успешно протестировали на выезде с автостоянки в Соединенн…

Аддитивные технологии в дроностроении, машиностроении и робототехнике, достижения 2015 года

Создана технология управления дроном при помощи человеческих движений

Что приходит в голову человеку, который уже слышал про 3D печать?Ну конечно же всем уже известно о сувенирной продукции, персонализированных подарках, деталях, которые сложно или дорого купить, промышленных прототипах и даже о протезах для человека.

А благодаря интернету практически каждый профессионал или любитель при желании может самостоятельно распечатать себе модель, которая предлагает готовое решение с той или иной долей уникальности или персонализации.

Взять например всеми используемый .

Там содержится огромное количество уже созданных и испробованных аппаратов под самые разные нужды и с самыми различными характеристиками – на запрос «drone» набралось свыше тысячи работоспособных моделей.

А если следить за Kickstarter то новые идеи по этому направлению оформляются по несколько штук за месяц.

Да речь пойдет именно об аддитивных технологиях в дроно-, робото-, автомобилестроении.И это слияние очень логично, если учесть такие нюансы, как возможность самостоятельно спроектировать любую деталь, простоту производства единичного прототипа с помощью 3D печати, и универсальность возможностей аддитивного производства.

А теперь конкретика – пожалуй, главным событием 2015 года в сфере трехмерной печати дронов можно назвать изобретение компаний AuroraFlightSciences и Stratasys, представленное на ежегодной выставке DubaiAirshow в Дубае. Компании презентовали первый в мире беспилотный летательный аппарат с реактивным двигателем, 80% деталей которого созданы с помощью 3D-принтера.

При печати была применена технология моделирования методом послойного наплавления (FDM), позволяющая выплавлять прочные и лёгкие детали больших размеров. В то же время отдельные части БПЛА были напечатаны методом селективного лазерного спекания (SLS).

Беспилотник весит 15 кг, имеет размах крыльев 3 м и способен развивать скорость до 241 км/ч, что является абсолютным рекордом среди прочих БПЛА.

Представители компании подчеркнули, что метод 3D-печати значительно ускорил процесс создания скоростного дрона. Больше всего времени (9 дней) ушло на создание фюзеляжа, выполненного из нейлона.

На изготовление остальных деталей (выхлопа реактивного двигателя, крыльев, форсунок, топливного бака и других мелких частей) уходило от пары часов до нескольких дней. Суммарно разработчикам потребовалось чуть больше месяца на воплощение идеи в жизнь.Немного о пользе дронов для людей.

Помимо очевидных функций, таких как доставка посылок и съемки при помощи видеокамеры, некоторые из дронов уже приспособлены для выполнения вполне определенных практических работ и постепенно заменяют человеческий труд.

Группа студентов из Мельбурнского университета при помощи Государственного объединения научных и прикладных исследований (CSIRO) спроектировала и построила прототип беспилотника с титановой рамой.

По словам разработчиков, использовать большую часть серийно производимых дронов для мониторинга лесных пожаров практически невозможно из-за того, что пластиковая рама легко плавится при высокой температуре. Кроме того, стандартный дизайн серийно производимых мультикоптеров повышает парусность, негативно влияет на управляемость и время работы беспилотника от батареи.

Для того, чтобы создать максимально эффективный беспилотник, студенты решили самостоятельно спроектировать обтекаемую раму из титана. Плечи с аэродинамическим профилем и облегченный титановый каркас гексакоптера созданы при помощи 3D-печати технологией SLS.

Как отмечают авторы проекта, аэродинамическая рама позволила снизить парусность беспилотника на 60 процентов, что, в сочетании с облегченным титановым каркасом почти вдвое увеличило время полета — гексакоптер может находиться в воздухе до 45 минут, передавая пожарным данные о распространении огня.

Ранее исследователи из Университета Небраски-Линкольнапредложили использовать для распространения лесных пожаров систему контролируемых поджогов сухой травы при помощи малых беспилотников, которые сбрасывают по команде на землю пиротехнические заряды.

Еще из интересного – компания DJI, мировой лидер в производстве беспилотных летательных аппаратов, 27 ноября 2015 года анонсировала запуск в производство дрона Agras MG-1, предназначенного для опрыскивания сельскохозяйственных культур.

DJI Agras MG-1 выполнен во влаго- и пылезащищеном исполнении из пластиковых материалов, не подверженных коррозии, в связи с чем после выполнения работы дрон может быть вымыт и сложен для транспортировки.Восьмимоторный Agras MG-1 может нести до 10 кг, опрыскивающей жидкости и покрывать площадь от 3.2 до 4 км. за час. Это в 40 раз эффективней ручного опрыскивания.

Дрон может лететь со скоростью до 8 м/с и при этом регулировать интенсивность опрыскивания в зависимости от скорости, не снижая при этом эффективность распыления.Agras MG-1 оснащен полетным контроллером и радиоволновым сонаром для поддержания заданной высоты в точности до сантиметра.

В процессе полета, сонар сканирует в реальном времени расстояние до поверхности земли и автоматически поддерживает расстояние до опрыскиваемых культур для максимально эффективного использования и расходования распыляемого вещества. Дрон управляется с помощью нового пульта управления. Пульт оснащен дисплеем с низким энергопотреблением, отображающим полетные данные.

Получилась весьма серьезная машина. Пластиковая конструкция пульта и внешняя обшивка коптера создана по технологии FDM, металлический каркас – по технологии SLS. Не учитывая «электронной начинки»,дрон полностью изготовлен с помощью 3D печати.

Британский программист Дирк Гориссен сконструировал дрон, при помощи которого можно вести поиск мин и неразорвавшихся боеприпасов.

На квадрокоптер, построенный на платформе , установлена выдвижная мачта с катушкой металлодетектора, изготовленная на 3d принтере. После взлета мачта c катушкой опускается и беспилотник начинает передавать данные, которые визуализируются с привязкой к карте местности в режиме реального времени.

Испытанный прототип способен обнаружить под землей металлический предмет размером с теннисный мяч на

расстоянии 20-70 сантиметров от катушки. В дальнейшем авторы проекта планируют заменить электронику и катушку металлодетектора на комплектующие, аналогичные военным, а также полностью перевести производство в 3D печать.

В свою очередь, инженеры Научно-исследовательской лаборатории ВМС США (NRL) разработали миниатюрный расходуемый беспилотный летательный аппарат, который можно будет не подбирать после использования. Новый беспилотник, получивший название Cicada напечатан из легкого ABS пластика и не имеет какого-либо двигателя.

Такие аппаратымогут тысячами сбрасываться над территорией противника и вести разведку или наблюдение, что гарантирует невозможность перехвата такого количества противником. Стоимость одного прототипа Cicada составляет около 1000$, однако после начала серийного производства ее можно будет снизить до 250$.

Cicada выполнен всего из десяти небольших деталей. Преимуществом аппарата является отсутствие двигателя, благодаря чему он является полностью бесшумным. После сброса беспилотник способен длительное время планировать на скорости до 74 километров в час.

На Cicada, в зависимости от выполняемой задачи, могут быть установлены различные типы сенсоров.

В NRL не исключают, что в перспективе беспилотники Cicada можно будет «печатать» прямо на борту самолетов.Давайте перейдем к тому что простым смертным ближе – к передвижению по земле.

2015 год можно по праву считать одним из наиболее успешных для печати автомобилей.

Ниже представлены лучшие достижения из этой сферы:

Начнем с одной из самых опытных в деле «3D-автомобиля» компаний – американской KorEcologic, которая была основана инженером Джимом Кором.

Его команда работает над проектом Urbeeуже более 15 лет и добилась неплохих результатов. В 2013-м фирма анонсировала первый прототип и вскоре представила саму машину, получившую имя Urbee 2.

Это была гибридная модель с кузовом и некоторыми деталями интерьера, напечатанными на 3D-принтере по технологии FDM, однако силовая структура тут другая – в основе машины лежит металлический каркас.

Urbee 2 не впечатляет максимальной скоростью (112 километров в час) однако обладает фантастически низким коэффициентом лобового сопротивления (0,149) и способен проезжать исключительно на электротяге почти 65 километров.

Вскоре фирма обещает установить мировой рекорд экономичности — пересечь на Urbee 2 США с востока на запад, проделав путь от Нью-Йорка до Сан-Франциско (свыше 4500 километров) на 38 литрах биотоплива. Причем в салоне автомобиля высотой чуть больше метра будут находиться два человека и собака.

Американская компания LocalMotors, которая в сентябре 2014 презентовала свой первый напечатанный на 3D-принтере электрокар (готовый к массовому производству) под названием «», уже через год, в начале ноября 2015, на международной выставке SEMA в Лас-Вегасе модель автомобиля нового поколения.

Электромобиль LM3D Swim, который призван стать «безопасным, умным и устойчивым» транспортным средством, был сконструирован менее чем за четыре месяца со дня утверждения его дизайна. Как сообщает производитель, примерно 75% процентов его деталей изготовлено с помощью технологий трехмерной печати, а в будущем этот показатель компания планирует довести до 90%.

Представителями LocalMotors отмечается, что ее инженеры постоянно находятся в поиске новых видов компонентов для аддитивного производства, а в качестве материалов для изготовления LM3D Swim используется смесь из 80% АБС-пластика и 20% углеволокна.Отрасль производства морских транспортных средств тоже не отстает от автомобилестроения.

Французская фирма Parrot в этом году опубликовала информацию о новом устройстве, созданному по технологии FDM – ParrotHydrofoil. Он представляет из себя обычный квадрокоптер, в комплекте с которым идет модель катера на подводных крыльях. При помощи специального крепления дрон устанавливается на мачту катера.

Как только роторы начинают вращаться, они тянут коптер и мачту вверх, мачта раскладывается и плоскость винтов оказывается направлена перпендикулярно водной поверхности. C этого момента он представляет собой радиоуправляемую аэролодку с четырьмя пропеллерами.

Квадрокоптер в воздухе может развивать скорость до 18 километров в час, по воде разогнаться до шести узлов (11 километров в час).Parrot специализируется на производстве мультикоптеров и радиоуправляемых игрушек на колесах. Самый известный продукт компании — это квадрокоптер AR.

Drone, завоевавший популярность в качестве платформы для научно-исследовательских проектов благодаря модульной конструкции, открытому API и возможности распечатать модель на принтере.

Природа так же вдохновляет на творчество: использовав осьминога в качестве модели, исследователи из Фраунгоферского института технологий машиностроения и автоматизации (ИТМА), разработали тихий двигатель для лодок и водных видов спортивного транспорта, использовав, конечно же, 3D печать.Для исследователей принцип водометного движения послужил ключевой моделью при разработке водяного насоса, работающего под водой. Они интегрировали этот принцип движения в подводный двигатель: четыре шара из эластомера приводят двигатель в работу, откачивая воду.

Для того чтобы произвести всю сложную плавную конструкцию из мягкого пластика, исследователи решили использовать технологию FDM в процессе 3D печати подводной двигательной установки, которая может выдерживать экстремальные уровни давления без разрушения.

Даже в ситуациях очень высокого напряжения, материал всегда возвращается к своей первоначальной форме.Благодаря 3D печати, исследователи также могут измерить размеры приводов. С помощью промышленного робота, который был оснащен тремя головками экструдера, исследователям удалось произвести компоненты гораздо большего размера.

При этом они могут использовать в процессе не более десяти различных видов термопластика, который выкладывается слоями. Благодаря интеграции непрерывного волокна в термопластик можно изготовить компоненты из армированного углеродного волокна быстро и дешево.

Однако не будем забывать об успехах в иных направлениях роботостроения, кроме транспорта и исследований глубин.Очередным примером этому стал совместный проект студии промышленного дизайна Forma и резидента Сколоково — компании X-Turion по созданию робота-охранника.

Последние занимались разработкой электронной начинки и общей концепцией, а на плечи первых легла задача по созданию модели корпуса и подготовке ее к серийному выпуску. Робот-охранник предназначен для патрулирования территории, находящейся под наблюдением.

Робот может патрулировать часть территории 24 часа в сутки, а при необходимости может быть с помощью смартфона отправлен в необходимое место для передачи изображения с места событий. Изучив тенденции рынка, дизайнеры разработали около 50 различных эскизов, из которых заказчик выбрал наиболее подходящую для имеющегося ряда задач.

В данном случае наиболее подходящим оказался полусферический универсальный корпус, который может при необходимости вместить дополнительное оборудование. Изначально стояла задача, чтобы готовый образец был возможен как для воспроизведения при помощи 3D-принтера, так и для крупносерийного производства посредством литья под давлением. Весь процесс разработки 3D-печатного робота-охранника уложился в два этапа.

При помощи 3D-печати из гипсополимера была создана только нижняя часть, предназначенная для крепления электроники и верхней части корпуса. Диаметр ее при этом составил около 50 см, чего было вполне достаточно для экспериментов с дополнительным оборудованием.

После всех тестов свет увидела вторая версия робота, корпус которой почти полностью был сделан на 3D-принтере (естественно, серийный модели будут изготовлены при помощи литья под давлением). Диаметр ее уже составил 35 см, а высота 25, при этом вес готовой конструкции составляет всего 3,2 кг.

Также робот-охранник укомплектован HD-камерой с прибором ночного видения, микрофоном, датчиками дыма, воды, температуры и влажности, WI-FI связью и аккумулятором.Ну и конечно же давайте вспомним про совершенно великолепный проект – Inmoov.

Немало времени прошло со времени создания потрясающего робота InMoov Гаэлем Ланжевеном и с тех пор разработчик не перестает удивлять публику.

Не имея ранее опыта в проектировании роботов, благодаря помощи, оказанной незнакомыми людьми, с которыми он познакомился онлайн, скульптор создал 3D печатного робота. Все детали к нему можно скачать бесплатно.

Во-первых, обратим внимание на руки робота Гаэля, именно они принесли ему успех, благодаря чему он появился на обложке журнала TheAtlantic, и в его в статье о будущем медицины. Затем об этом проекте написали в блоге CNN, а вскоре робот стал основной новостью в статье французского журнала Science&VieJunior, полностью посвященного роботам.

Отметим, что много работы над этим роботом выполнили другие люди, помимо самого Гаэля. Проект стал настолько общераспространенным и открытым, что появились люди, которые печатают их собственные детали, даже не ссылаясь на исходный источник.

Одной из движущих сил этого проекта слало то, что каждый ощущает себя важным звеном команды, обмениваясь друг с другом полезной информацией на форумах InMoov, которым принадлежит главная роль в развитии данного робота.

Поэтому, если Гаэль, например, стремится разрешить проблему со слухом у робота – встроенные в уши робота микрофоны проблематично улавливают звуковые команды из-за шума работающего двигателя – то ему стоит оставить доступ к чертежам открытым и продолжать надеяться, что некто на другом конце планеты сумеет найти решение. Такой вот он оупенсоурс.

Некоторое время назад программисты и проектировщики создали новую версию – они упростили все настолько, что теперь даже начинающие смогут смело приняться за работу. Они сконструировали простого робота, который можно собрать, используя Arduino, двигатель, и InMoov с одним пальцем, что позволяет начинающим пользователям с легкостью программировать и командовать InMoov.

Понравилась статья? Поделиться с друзьями:
Все о сантехнике
1 / 9
2 / 9
3 / 9
4 / 9
5 / 9
6 / 9
7 / 9
8 / 9
9 / 9