Około połowy zeszłotygodniowego Actuatora napisałem w środę w pustym biurze w MassRobotics po spotkaniu ze start-upem na wczesnym etapie. Nie jestem jeszcze gotowy, aby wam o nich opowiedzieć, ale wykonują interesującą pracę i mają jedną z najdziwniejszych historii założycielskich ostatniego rocznika, więc bądźcie czujni. Pozdrowienia dla Joyce Sidopoulos za bycie bardzo łaskawym gospodarzem dla reportera, który utknął na kilka godzin między spotkaniami w Bostonie. Gdybym mógł, zostawiłbym pięciogwiazdkową ocenę Airbnb.

Z MassRobotics udałem się do Cambridge, aby odbyć miłą, długą pogawędkę z Markiem Raibertem w Boston Dynamics AI Institute . Nowo utworzony instytut ma swoją siedzibę w nowym 19-piętrowym budynku Akamai , położonym po drugiej stronie ulicy od ogromnego budynku Google i rzut kamieniem od laboratorium MIT, w którym zasiane zostały ziarna całego projektu Boston Dynamics.

Akamai wynajmuje obecnie co najmniej cztery piętra budynku z powodu naprawdę niefortunnego momentu. Projekt budowlany został ukończony pod koniec 2019 roku, co oznaczało, że przestrzeń miała kilka dobrych miesięcy, zanim rozpęta się piekło. W maju 2022 roku firma Akamai ogłosiła, że oferuje 95% z 10 000 swoich pracowników stałą pracę z domu . Oczywiście nie każdy, kto może pracować z domu, to robi, ale w obliczu pandemii można bezpiecznie założyć, że wielu lub większość to zrobi.

Przypuszczam, że tym lepiej dla Raiberta i instytutu. Dzięki ogromnemu zastrzykowi gotówki od firmy macierzystej Boston Dynamics, firmy Hyundai, organizacja jest gotowa zająć się niektórymi z najtrudniejszych problemów związanych z robotyką i sztuczną inteligencją. Ale najpierw wzrost. Raibert mówi mi, że znaczną część dnia spędza na rozmowach kwalifikacyjnych z kandydatami. Obecnie dostępnych jest około 35 ofert pracy, a kolejne są w drodze. A potem jest lista pod tytułem „Nie widzisz tego, czego szukasz?” z opisem: „Jeśli nie widzisz oferty pracy na stanowisko odpowiadające Twojemu doświadczeniu/zainteresowaniom, aplikuj tutaj. Nadal jesteśmy zainteresowani kontaktem z Tobą!”

Niezła robota, jeśli możesz ją zdobyć, jak to mówią.

Obecnie przestrzeń wygląda jak standardowy startup, co może być źródłem frustracji dla organizacji, która chce naprawdę pochylić się nad laboratorium. Mam wrażenie, że następnym razem, gdy będę miał okazję ją odwiedzić, będzie wyglądać zupełnie inaczej — i będzie dużo pełniejszy. Jednak obecnie ma całą masę robotów Spot. Po jednej stronie jest w zasadzie pełna psia opieka dzienna. Raibert zauważa, że Spoty zostały zakupione, a nie przekazane instytutowi, ponieważ on i Boston Dynamics są odrębnymi podmiotami, pomimo nazwy.

Inną drogą są koncepcje artystów dotyczące tego, jak roboty mogą w przyszłości zintegrować się z naszym codziennym życiem. Niektórzy wykonują prace domowe, inni naprawiają samochody, a jeszcze inni wykonują bardziej zabawne akrobacje. Niektóre systemy są niesamowicie podobne do Atlasa, a inne są nieco bardziej dostępne. Raibert mówi, że jego zespół zasugerował scenariusze, a artysta poprowadził je w dowolnym kierunku, jaki uznali za stosowny, co oznacza, że nic, co tam widzisz, nie powinno być traktowane jako wgląd w to, jak mogą wyglądać ich projekty robotów w przyszłości. Z drugiej strony zadania, które próbują rozwiązać, mogą być przedstawione na rysunkach.

Przeglądam stare zdjęcia z MIT Leg Lab. Zobacz to ujęcie Marca Raiberta z Boston Dynamics (po prawej) na planie filmu Connery/Snipes/Crichton, Rising Sun, około 1992 r. pic.twitter.com/DGtugbDaY1

— Brian Heater (@bheater) 26 kwietnia 2023 r

Przed nimi kilka zakurzonych robotów z czasów Raibert's Leg Lab, które zostały „uratowane” ze swoich długoletnich domów w muzeum robotów MIT. To od tego czasu zabrało mnie do prawdziwej króliczej nory, sprawdzając stronę Leg Lab , która nie była aktualizowana od 1999 roku, ale zawiera przedhawajską koszulę Raibert uśmiechającą się obok robota i trzech kolesi w kombinezonach ochronnych na planie Rising z 1993 roku Słońce .

Poza tym wystarczy przewinąć listę studentów i wykładowców: między innymi Gill Pratt, Jerry Pratt, Joanna Bryson, Hugh Herr, Jonathan Hurst. Chłopcze cześć.

Czwartek był dużym wydarzeniem TechCrunch na wczesnym etapie w Hynes Convention Center. Dla tych, którzy nie mogli przybyć, mamy kilka opisów paneli, które pojawią się mniej więcej w przyszłym tygodniu. Upewniłem się, że zespół TechCrunch+ opublikował jedną z moich prac godzinę lub dwie temu, ponieważ chciałem tutaj trochę o tym porozmawiać. Panel nie dotyczył bezpośrednio robotyki, ale poruszyliśmy wiele kwestii, które są tutaj istotne.

Rola uniwersyteckich post-badawczych jest tematem, o którym myślałem i pisałem sporo w ciągu ostatnich kilku lat. Byłem nieugięty, że poświęcimy temu tematowi panel podczas wydarzenia, biorąc pod uwagę, że w Bostonie znajduje się jedna lub dwie szkoły. W moich relacjach zwykle podchodziłem do tematu z punktu widzenia samych szkół, pytając po prostu, czy działają one jako wystarczający kanał. Coraz częściej odpowiedź brzmi „tak”. Nie chcę być zbyt niegrzeczny, ale historycznie zostawili tam dużo pieniędzy na stole. To również był duży historyczny drenaż mózgów. Spójrz, o ile lepiej radzą sobie CMU i Pittsburgh w utrzymywaniu lokalnych start-upów.

Pae Wu, SOSV i CTO w IndieBio (SOSV) rozmawiają o „How to Turn Research Into a Business” na TechCrunch Early Stage w Bostonie 20 kwietnia 2023 r. Źródło zdjęcia: Haje Kamps / TechCrunch

Trudno byłoby znaleźć kogoś z bardziej świadomą perspektywą po drugiej stronie równania niż Pae Wu, komplementariusz w SOSV i CTO w IndieBio. Trochę kontekstu jest tu prawdopodobnie przydatne. Zeszłotygodniowe wydarzenie obejmowało przede wszystkim rozmowy VC skierowane do inwestorów na wczesnym etapie rozwoju. Wu spędziła część swojego wystąpienia, omawiając, w jaki sposób „wyzdrowieni naukowcy” mogą zostać z powodzeniem zintegrowani z zespołem założycielskim. Ale nie każdy profesor chce objąć „odzyskany kawałek”.

Powinienem powiedzieć, że doświadczyłem wielu scenariuszy, w których profesorowie wydają się dobrze podążać tą linią. Wystarczy spojrzeć na Berkeley Artificial Intelligence Research Lab, by zobaczyć Kena Goldberga i Pietera Abbeela, którzy są obecnie w zespołach założycielskich odpowiednio Ambi Robotics i Covariant.

„Istnieje kilka sektorów, w których bardzo dobrze może działać posiadanie członków zespołu założycielskiego, którzy pozostają w środowisku akademickim” — mówi Wu. „Widzimy to cały czas w tradycyjnej biotechnologii i farmacji. Ale w innych sytuacjach może to być, szczerze mówiąc, obciążenie dla firmy i problematyczne dla założycieli, którzy są zatrudnieni w pełnym wymiarze godzin. To bardzo trudna rozmowa, którą dość często prowadzimy z niektórymi z naszych zaangażowanych naukowców: Twój udział w tej firmie nie jest tak naprawdę dostosowany do Twojego zaangażowania czasowego”.

Wu wskazuje na scenariusze, w których profesor pozostaje w roli lidera, podczas gdy na co dzień działa na autopilocie. Problem, jak wyjaśnia, polega na tym, że często zgłaszają się po sugestie oderwane od bardzo czasochłonnej i pochłaniającej zasoby pracy związanej z prowadzeniem firmy.

„Pracownicy akademiccy naprawdę lubią mówić:„ Cóż, jestem naprawdę dobra w wielozadaniowości i dlatego mogę to robić ”- wyjaśnia. „Przez większość czasu założyciel akademicki będzie przychodził i wychodził, przekazując swoją mądrą mądrość pełnoetatowym założycielom, którzy poświęcili swoje życie i zaryzykowali wszystko dla tej firmy. Zaczyna stwarzać wyzwania, aby firma mogła iść do przodu. Stwarza to również wyzwania interpersonalne dla zespołu założycielskiego, ponieważ trzeba być szczególnym rodzajem świętego, aby powiedzieć: „Pracuję 100 godzin tygodniowo, nie zarabiam żadnych pieniędzy, a cała moja przyszłość finansowa zależy od sukces tej firmy. A ten facet ciągle przychodzi, żeby powiedzieć mi jakąś przypadkową rzecz, którą przeczytał w „Harvard Business Review”.

Wu ostrzega również przed zaangażowaniem uniwersytetów na wczesnym etapie:

Jeśli chcesz być start-upem wspieranym przez VC, uważaj na pomocne rzeczy uniwersyteckie. To może być bardzo, bardzo wygodne. Robią świetną robotę inkubując firmy, ale nie wiem, czy wykonują świetną robotę przy przyspieszaniu firm. Dostajesz dużo „darmowych rzeczy” i [ludzie często mówią] „Och, to wygodny program EIR (edukacja, innowacje i badania), a ten facet założył wcześniej 15 firm”. Ale ten facet założył 15 firm w sektorach, które nie mają absolutnie nic wspólnego z tym, co próbujesz zrobić. Zdecydowanie lepiej byłoby znaleźć kogoś, kto naprawdę troszczy się o twoją misję, nie jest opłacany przez uniwersytet, ale jest zachęcany do głębokiej troski o twoją firmę.

Możesz przeczytać (i zgodzić się lub nie) cały artykuł na TechCrunch+ .

Kredyty obrazkowe: Kępki

Piątek, przypadkowo, okazał się dla mnie dniem uniwersyteckim. Nie udało mi się zobaczyć zbyt wielu badań podczas mojej ostatniej podróży do Bostonu, więc tym razem postarałem się wykroić jeden dzień. Poranek rozpoczął się od wycieczki do Tufts. Ostatni raz odwiedziłem szkołę w 2017 roku . Dyrektor Human-Robot Interaction Lab, Matthias Scheutz, opowiedział ekipie filmowej i mnie o szkoleniu robotów, by ufały.

Scheutz i ja ponownie zasiedliśmy do osobnej — ale powiązanej — dyskusji. Przed objęciem funkcji profesora uzyskał wspólny doktorat z kognitywistyki i informatyki na Uniwersytecie Indiana oraz kolejny doktorat z filozofii na Uniwersytecie Wiedeńskim. To nieprawdopodobna kombinacja, która wpływa na większość jego pracy. Biorąc pod uwagę wszystkie etyczne i moralne objazdy podczas naszej rozmowy, nie mogłem przestać myśleć, że byłby to dobry podcast.

Sednem wywiadu są wysiłki zespołu mające na celu opracowanie zestawu wiedzy, który można dzielić między robotami. W kolejnej demonstracji w pobliskim laboratorium jeden z członków zespołu poprosił robota badawczego Fetch o złożenie pojemnika na śruby, ale nie ma on wymaganej wiedzy. Następnie współpracownik-człowiek instruuje robota, jak wykonać ten proces krok po kroku — „Wykonaj podczas uczenia się”, jak to ujęli. Po zdobyciu wiedzy przechodzi przez około 100 symulacji w krótkich odstępach czasu, aby określić prawdopodobieństwo, że wykona zadanie poprawnie.

Inny członek zespołu pyta pobliskiego robota Nao, czy Fetch wie, jak wykonać zadania. Oba roboty komunikują się niewerbalnie. Fetch ponownie przeprowadza symulacje i dzieli się informacjami z Nao, który następnie przekazuje je człowiekowi. Demo oferuje szybki skrót tego, w jaki sposób roboty sieciowe mogą przekazywać informacje, których się nauczyły, za pośrednictwem pewnego rodzaju sieci w chmurze – lub sieci nieba, jeśli wolisz.

Poniżej zacytowałem niektóre z bardziej interesujących fragmentów naszej rozmowy.

W środy używamy funkcji pobierania, aby zlokalizować śruby 🤖 #TryTech pic.twitter.com/Vbx3T2X6rV

— TechCrunch (@TechCrunch) 27 kwietnia 2023 r

[Powiedziano mi, że powyższe jest odniesieniem do Mean Girls.]

Rozmowa z Matthiasem Scheutzem

Rozproszenie uwagi a przeciążenie

Jeśli wykryję, że jesteś rozproszony, być może muszę zwrócić twoją uwagę z powrotem na zadanie. To zupełnie inna interakcja, której potrzebujesz, niż ta, w której jesteś przeciążony. Powinienem chyba zostawić cię w spokoju, żeby dokończyć sprawę. Wyobraź sobie więc robota, który nie potrafi rozróżnić stanu rozproszenia, który powinien być bardzo zaangażowany i przywrócić osobę do zadania, w porównaniu z osobą przeciążoną. W takim przypadku, jeśli robot o tym nie wie, interakcja może przynieść zespołowi efekt przeciwny do zamierzonego. Jeśli potrafisz wykryć te stany, byłoby to bardzo pomocne.

Wspólne modele mentalne

Jeden z filmów, który mamy na naszej stronie internetowej, pokazuje, że jednego robota, który nie wie, jak robić przysiady, można nauczyć przysiadów, a drugi może to robić od razu. Sposobem na to jest użycie tego samego wspólnego modelu mentalnego. Nie możemy tego zrobić. Jeśli nie umiesz grać na pianinie, nie mogę ci tego po prostu wbić do głowy. To także część problemu z tymi wszystkimi głębokimi sieciami neuronowymi, które są obecnie bardzo popularne. Nie możesz dzielić się wiedzą na tym poziomie. Nie mogę wszczepić w waszą sieć neuronową (dotyczy to również ludzi) tego, czego nauczyłem się przez wiele lat gry na pianinie. Ale jeśli popchniesz abstrakcję nieco wyżej, gdzie masz opis niezależny od tego, jak jest realizowany w sieci neuronowej, możesz go udostępnić.

O wielozadaniowości

Dobrym przykładem jest gorący piec. W chwili [dotyk jest wydawany przez mózg], możesz już zdawać sobie sprawę, że jest włączony, ale może być już za późno. Istnieje poziom abstrakcji, na którym mogę świadomie i poznawczo interweniować w sekwencjonowanie i zmieniać różne rzeczy. Istnieje poziom dyskretnych działań, w których następuje sekwencjonowanie, również automatycznie. Na przykład lata temu, kiedy byłem w Notre Dame, pojechałem na kampus, ale nie chciałem tam jechać. Ale ja myślałem o pracy i tak ten mój automatyczny system mnie zawiózł iw następnej chwili byłem na parkingu. Mogę z tobą porozmawiać i przygotować jedzenie, nie ma problemu. Ale trzeba to przećwiczyć. Jeśli czynność nie jest przećwiczona, nie możesz jej wykonać. Mamy warstwę w [robotycznej] architekturze, która wykonuje to automatyczne sekwencjonowanie. To poziom, na którym możemy udostępniać bardziej złożone działania.

Twój Roomba nie wie, że istniejesz

Istnieje cienka granica, w której musisz mieć te mechanizmy na miejscu, ponieważ w przeciwnym razie nastąpią szkody, jeśli nie będą one na miejscu. Otrzymujesz to dzięki autonomicznym samochodom; dostajesz to w wielu kontekstach. Jednocześnie nie chcemy blokować wszystkich robotów, ponieważ chcemy ich używać do tego, do czego są dobre — do czego są korzystne. Muszą mieć większą świadomość tego, co się dzieje, do czego są wykorzystywani. To nie problem z Roombą, ponieważ ona nawet nie wie, że istniejesz. Nie mają o niczym pojęcia. Ale jeśli spojrzysz na YouTube, znajdziesz filmy, na których Roomba wpycha zwierzaki pod kanapę. Nie mają świadomości żadnej osoby ani żadnej rzeczy w otoczeniu. Nawet nie wiedzą, że wykonują zadanie odkurzania. To takie proste. Jednocześnie widać, o ile bardziej masowo wyrafinowane musiałyby być, aby rzeczywiście poznawczo ogarnąć wszystkie ewentualności, które mogą się wydarzyć w mieszkaniu.

Kiedy roboty mówią nie

Wiele lat temu mieliśmy film, na którym robot odmawia ludziom. W niektórych przypadkach ludzie mogą nie być świadomi stanu, w jakim znajduje się robot, wydawać mu instrukcje, a jeśli robot wykona tę instrukcję, byłoby to złe dla robota lub dla człowieka. Więc robot musi powiedzieć nie. Ale nie może po prostu powiedzieć nie i nic więcej. Musi ci powiedzieć, dlaczego nie. Jeśli robot po prostu tego nie robi, to nie jest dobrze. Nie zaufasz temu robotowi, że znowu coś zrobi.

Wtrącenie redakcyjne tutaj. Wideo „nie” wywołało trochę zamieszania z powodu domniemanego naruszenia drugiego prawa Asimova: „Robot musi wykonywać polecenia wydawane mu przez istoty ludzkie, z wyjątkiem sytuacji, gdy takie polecenia byłyby sprzeczne z Pierwszym Prawem”. Oczywiście w tym drugim prawie zawarta jest klauzula, która mówi, że robot nie powinien wykonywać rozkazu, jeśli spowoduje to zranienie człowieka (pierwsze prawo).

Ale Scheutz na tym nie poprzestaje. Maluje scenariusz, w którym robot niesie pudełko, tak jak mu kazano. Nagle inny człowiek mówi temu samemu robotowi, aby otworzył drzwi, ale zrobienie tego spowodowałoby upuszczenie — i uszkodzenie — pudełka. W tym przypadku „nie” nie dotyczy ochrony człowieka, ale wykonywania rozkazów. Natychmiastowe wykonanie drugiego rozkazu skutecznie neguje jego zdolność do wykonania pierwszego.

To tutaj robot musi powiedzieć: „Nie, ale nie martw się, mam cię, gdy dostanę to pudełko tam, gdzie powinno się udać”.

Rozmowa z Pulkitem Agrawalem

robot z piłką nożną

Kredyty obrazkowe: MIT CSAIL

Po naszej pogawędce wracam do Cambridge po raz pierwszy od początku pandemii w MIT CSAIL. Ze względu na zmianę planów w ostatniej chwili nie udało mi się niestety ponownie połączyć z Danielą Rus. Miałem jednak szansę w końcu porozmawiać z adiunktem z elektrotechniki i informatyki (EECS), Pulkitem Agrawalem. Tak się złożyło, że niedawno pisałem o pracy jego zespołu nad nauką czworonoga gry w piłkę nożną na trudnych nawierzchniach, takich jak piasek i błoto.

Kiedy przyjechałem, skomentowałem znajdujące się przede mną pudełko Intel RealSense. Szukałem jakiegokolwiek powodu, aby omówić odejście od LiDAR-u, które widziałem ostatnio wśród robotyków, i to było świetne. Ponownie, kilka najważniejszych informacji poniżej.

O tym, dlaczego coraz więcej robotyków odchodzi od LiDAR

W tej chwili nie mamy do czynienia z przeszkodami. Jeśli [piłka] odejdzie od robota, musi sobie z tym poradzić. Ale nawet pokonując przeszkody, możesz to zrobić za pomocą RGB. Sposób myślenia o tym jest taki, że ludzie chcieli głębi, ponieważ mogli pisać programy ręcznie, jak poruszać robotem, biorąc pod uwagę zapis głębokości. Ale jeśli mamy przejść do robotyki opartej na danych, gdzie nie piszę własnego programu, ale piszą go komputery, nie ma znaczenia, czy mam głębię, czy RGB. Liczy się tylko to, ile mam danych.

Na chwytakach

Dlaczego ludzie używają przyssawek? Ponieważ są jak pięć dolców. Jest zepsuty, wymieniasz go. Nawet skłonienie ich do użycia chwytaka na dwa palce kosztuje 100 dolarów. Nawet Amazon nie chce instalować więcej czujników. Załóżmy, że idziesz do firmy i mówisz: „Chcę dodać ten czujnik, ponieważ może to poprawić wydajność”. Zapytają, ile będzie kosztował czujnik, i pomnożą to przez liczbę robotów, które mają.

O robotach „ogólnego przeznaczenia”.

Załóżmy, że masz jeden cel, powiedzmy, podnoszenie pudeł i umieszczanie ich na przenośniku taśmowym, a następnie pobieranie i umieszczanie, a następnie ładowanie ich na ciężarówkę. Mogłeś skonstruować trzy różne roboty, które są bardziej wydajne w trzech różnych zadaniach. Ale masz również różne koszty związane z utrzymaniem tego innego robota i integracją tych różnych robotów w ramach swojego potoku. Ale gdybym miał tego samego robota, który może robić te różne rzeczy, być może ich utrzymanie kosztuje mniej, ale być może są mniej wydajne. To wynika z tych obliczeń.

Kiedy wspomniałem o robotach Mini Cheetah, z którymi pracował zespół, Agrawal skomentował: „Okazuje się, że przewracanie się jest znacznie łatwiejsze niż chodzenie”.

– Mów za siebie – sprzeciwiłem się.

Dodał: „To, co jest intuicyjne dla ludzi, jest w rzeczywistości sprzeczne z intuicją dla maszyn. Na przykład grając w szachy lub grając w go, maszyny mogą nas pokonać. Ale nie mogą otwierać drzwi. To paradoks Moraveca ”.

Ankieta dla inwestorów TC+

Źródło obrazu: Bryce Durbin/TechCrunch

Zgodnie z obietnicą, kolejne pytanie z naszej ostatniej ankiety dla inwestorów TechCrunch+.

Idąc w ślady robotów odkurzających, jak długo potrwa, zanim dodatkowe kategorie robotów domowych staną się naprawdę popularne?

Kelly Chen, DCVC: W najlepszym razie średnioterminowe. Składanie codziennych robotów przez Alphabet pokazuje, że nawet duże zasoby nie są w stanie zapewnić rentowności robotów domowych. Dom jest bardzo nieuporządkowanym środowiskiem. Wykraczając poza stosunkowo proste wyjątki, których muszą nauczyć się istniejące roboty próżniowe, reszta domu jest znacznie trudniejsza. Dodatkowe zadania są wykonywane w 3D, co może oznaczać więcej czujników, siłowników, manipulacji, różne chwytaki, kontrolę siły i znacznie mniejszą przewidywalność. Nie jesteśmy jeszcze w stanie uczynić tego niezawodnym i ekonomicznym.

Helen Greiner, Cybernetix Ventures: Pięć lat dla kosiarek do trawy w USA, opartych na nawigacji wizyjnej (w połączeniu z GPS). Brak przewodów konfiguracyjnych i lepsze interfejsy użytkownika będą napędzać popyt. Efekt sieciowy (sąsiedzi kopiujący sąsiadów) będzie napędzał popyt po początkowej adopcji. Trzynaście lat dla humanoidalnego pomocnika, opartego na Zwinności i X1, tańsze i inteligentniejsze.

Paul Willard, Grep: To już się zaczęło. Roboty labradorskie pomagają osobom mającym trudności z poruszaniem się w aportowaniu i przenoszeniu rzeczy po domu. Tak więc lekarstwa są zawsze pod ręką i przyjmowane na czas, zakupy spożywcze z drzwi wejściowych można zanieść do lodówki i spiżarni, aby je odłożyć, a obiad można przenieść z kuchenki na stół jadalny, podczas gdy klient ma pełne ręce roboty, być może z chodzik, laska lub wózek inwalidzki. Będzie ich więcej, ponieważ sprzęt składający się na roboty stanie się jednocześnie tańszy i bardziej wydajny.

Cyril Ebersweiler, SOSV: Większość firm zajmujących się robotyką, które myślą o B2C, na przestrzeni lat przeszło na B2B. Czas, skala i kwoty potrzebne do uruchomienia takiej marki w dzisiejszych czasach nie są dokładnie tym, czego szukają VC.

Aktualności

Solidne roboty magazynowe

Kredyty obrazkowe: Robust.AI

Mieliśmy okazję ponownie dogonić Rodneya Brooksa (musimy przestać się tak spotykać). Tym razem dołączył do niego współzałożyciel i dyrektor generalny Robust.AI, Anthony Jules. Praca startupu była przez jakiś czas owiana tajemnicą, co doprowadziło do tego zabawnego nagłówka z IEEE . Mamy teraz znacznie lepsze pojęcie o tym, czym zajmuje się zespół: tworzy zrobotyzowany wózek i system zarządzania oprogramowaniem dla magazynu.

Brooks, co zrozumiałe, trochę się wahał, czy wrócić do gry sprzętowej. Jules powiedział mi:

Zaczęliśmy od próby bycia firmą zajmującą się wyłącznie oprogramowaniem. Zaczęliśmy przyglądać się przestrzeni i uznaliśmy, że istnieje świetna okazja, aby naprawdę stworzyć coś, co zmieni ludzi. Kiedy byliśmy tym podekscytowani, wykonaliśmy bardzo standardowe prace nad produktem, aby zrozumieć, jakie są problemy i co naprawdę pomogłoby ludziom w tej przestrzeni. Mieliśmy dość jasną wizję tego, co będzie wartościowe. Pewnego dnia dosłownie powiedziałem Rodowi: „Myślę, że mam dobry pomysł na firmę, ale nie spodoba ci się to, ponieważ oznacza to, że być może będziemy musieli zbudować sprzęt”.

Pod koniec zeszłego tygodnia Robust ogłosił serię A-1 o wartości 20 milionów dolarów, prowadzoną przez Prime Movers Lab i obejmującą Future Ventures, Energy Impact Partners, JAZZ Ventures i Playground Global. To wynika z serii A o wartości 15 milionów dolarów, ogłoszonej pod koniec 2020 roku.

Konfiguracja Veo Robotics w środowisku coworkingowym człowiek-robot.

Konfiguracja Veo Robotics w środowisku współpracy człowiek-robot. Kredyty obrazkowe: Robotyka Veo

W tym tygodniu firma Veo Robotics z siedzibą w Massachusetts ogłosiła , że zamknęła serię B o wartości 29 milionów dolarów. Obejmuje to 15 milionów dolarów z zeszłego roku i 14 milionów dolarów z tego roku. Uczestniczyli w nim Safar Partners i Yamaha Motor Ventures, ale najbardziej godnym uwagi wsparciem jest Amazon poprzez swój Fundusz Innowacji Przemysłowych o wartości 1 miliarda dolarów.

Łatwo jest postrzegać te inwestycje jako rodzaj próbnego uruchomienia potencjalnych przejęć, chociaż firma w dużej mierze zaprzeczyła, że wykorzystuje pieniądze jako proces wdrażania. To powiedziawszy, jest to z pewnością wotum zaufania, a przynajmniej prawdopodobnie wskazówka, że firma rozpocznie pilotaż tej technologii we własnych obszarach roboczych — zakładając, że jeszcze tego nie zrobiła.

„Najnowsza generacja inteligentnych systemów robotycznych współpracuje z ludźmi, a nie oddzielnie od nich” — mówi współzałożycielka i CTO Clara Vu. „Uwolnienie tego potencjału wymaga nowej generacji systemów bezpieczeństwa — taka jest misja Veo i cieszymy się, że możemy zrobić kolejny krok”.

Veo opracowuje warstwę bezpieczeństwa oprogramowania dla robotów przemysłowych, pozwalając im działać razem z ludzkimi współpracownikami poza klatkami widocznymi na wielu piętrach.

Kredyty obrazkowe: Uniwersytet Tokijski

Wszyscy pamiętamy poprzedniczkę Digit, Cassie, prawda? Robot OSU czerpał silne wskazówki od strusi, jeśli chodzi o poruszanie się na dwóch nogach. RobOstrich (robot struś. Wolne klaskanie) jest bardziej zainteresowany górną połową największego nielotnego ptaka na świecie.

„Z punktu widzenia robotyki trudno jest kontrolować taką strukturę” — powiedział IEEE Kazashi Nakano z Uniwersytetu Tokijskiego. „Skupiliśmy się na szyi strusia ze względu na możliwość odkrycia czegoś nowego”.

System składa się z 17 wydrukowanych w 3D kręgów, z drutem fortepianowym służącym jako mięśnie. System jest w rzeczywistości długim robotem manipulacyjnym, który oferuje elastyczną zgodność, której brakuje innym systemom.

Zróbmy więcej ofert pracy dla robotów w przyszłym tygodniu. Wypełnij ten formularz , aby Twoja firma znalazła się na liście.

Kredyty obrazkowe: Bryce Durbin / TechCrunch

Wyjmij już głowę z piasku. Subskrybuj Actuator.