Publisert Legg igjen en kommentar

Autonome roboter lærer på fabrikken – Toyota og KinetIQ revolusjonerer industriell automatisering

Toyota Research Institute tester nå autonome roboter direkte på produksjonsgulvet, mens Humanoid lanserer KinetIQ – et AI-rammeverk som kan styre hele flåter av humanoide roboter. Disse utviklingene markerer et skifte fra simulering til virkelig læring i industrielle miljøer.

Toyota lærer roboter gjennom praksis

I stedet for å stole utelukkende på simulering, har Toyota Research Institute i samarbeid med Toyota Manufacturing valgt en revolusjonerende tilnærming: autonome roboter lærer direkte på fabrikken. Dette representerer et fundamentalt skifte i hvordan vi trener industrielle robotsystemer.

Robotene får muligheten til å eksperimentere med reelle arbeidsoppgaver under kontrollerte forhold. Dette gir dem erfaring med variasjonene og utfordringene som kun finnes i virkelige produksjonsmiljøer – noe som er umulig å fullt ut replikere i digitale simuleringer.

Den praktiske tilnærmingen gir robotene mulighet til å tilpasse seg uforutsette situasjoner og optimalisere arbeidsflyt basert på faktiske betingelser

KinetIQ – AI for robotflåtestyring

Samtidig har Humanoid introdusert KinetIQ, et avansert AI-rammeverk designet for ende-til-ende orkestrering av humanoide robotflåter. Systemet koordinerer både hjulbaserte og tobeinte roboter innenfor samme plattform.

KinetIQ-systemet håndterer:

  • Flåtenivå-operasjoner på tvers av flere miljøer
  • Individuell robotadferd og oppgavefordeling
  • Sømløs integrering mellom ulike robottyper
  • Sanntids koordinering og optimalisering

Praktiske implikasjoner for industrien

Disse utviklingene har betydelige praktiske konsekvenser for moderne produksjon. Fabrikklæring reduserer tiden fra utvikling til implementering, mens robotene kontinuerlig forbedrer sine ferdigheter basert på reell erfaring.

KinetIQ-teknologien åpner for mer fleksible produksjonslinjer hvor ulike robottyper kan samarbeide dynamisk. Dette er spesielt relevant for:

  • Variabel produksjon med hyppige produktskifter
  • Komplekse monteringsoperasjoner
  • Kvalitetskontroll og inspeksjon
  • Materialhåndtering og logistikk

For hobbyister og studenter representerer disse fremskrittene en spennende utvikling mot mer tilgjengelige og intelligente robotsystemer. Prinsippene bak fabrikklæring kan også anvendes i mindre skala for utdanningsprosjekter og prototyping.

Kilde: IEEE Spectrum Robotics

Publisert Legg igjen en kommentar

Væradaptive sensorer gir tryggere selvkjørende biler i regn og snø

Forskere har utviklet et revolusjonerende system som gjør selvkjørende biler betydelig tryggere i dårlig vær. Teknologien tilpasser LiDAR, radar og kameraer dynamisk basert på nedbørsmengde og værforhold. Testene viser 31% bedre deteksjonsevne og 28% færre feilalarmer sammenlignet med tradisjonelle systemer.

Autonome kjøretøy har lenge slitt med å navigere trygt under vanskelige værforhold. Regn, snø og tåke kan dramatisk redusere ytelsen til sensorer som LiDAR og kameraer, noe som utgjør en betydelig sikkerhetsrisiko. Nå har forskere utviklet en løsning som kan revolusjonere hvordan selvkjørende biler håndterer dårlig vær.

Intelligent tilpasning til værforholdene

Det nye systemet kombinerer tre avanserte teknologier: værvarsling basert på radar, dyp maskinlæring for å modellere sensornedgradering, og adaptiv sannsynlighetsbasert sensorfusjon. I praksis betyr dette at bilen kontinuerlig overvåker værforholdene og justerer hvor mye den stoler på ulike sensorer.

Under kraftig regn kan LiDAR-ytelsen reduseres med opptil 40%, mens radar ofte opprettholder god ytelse. Systemet kompenserer automatisk for dette.

Teknologien bruker værdataen til å forutsi hvor pålitelige de forskjellige sensorene vil være i sanntid. Når det regner kraftig, gir systemet mer vekt til radar-dataene og mindre til LiDAR og kameraer. Motsatt får optiske sensorer økt prioritet under klare værforhold.

Imponerende testresultater

Forskningsteamet testet systemet på 4,5 terabyte sensordata samlet over 320 kjøretimer under fem ulike værscenarioer. Resultatene er imponerende:

  • 31,2% økning i deteksjonspresisjon
  • 27,8% reduksjon i falske positiver
  • Raskere respons: gjennomsnittlig oppfattelseslatens redusert fra 51 til 43 millisekunder
  • Høy nøyaktighet: nedbørmåling med kun 0,42 mm/t gjennomsnittlig avvik

Praktiske anvendelser og fremtidsperspektiver

Teknologien er særlig relevant for nordiske forhold med hyppige værskifter. Systemet kan implementeres på eksisterende sensorplattformer som allerede bruker kombinasjonen av LiDAR, RADAR og kameraer. Dette gjør det mulig å oppgradere både nåværende testflåter og kommersielle autonome systemer.

For hobbyister og forskere som arbeider med autonome kjøretøy-prosjekter, representerer denne tilnærmingen et viktig skritt mot mer robust sensorfusjon. Metodikken kan også tilpasses mindre systemer som droner og mobile roboter som opererer utendørs.

Den adaptive sensorfusjonen åpner også for nye muligheter innen andre områder hvor værforhold påvirker sensorytelse, som overvåkingssystemer, industriell automatisering og smart by-teknologi.

Kilde: Scientific reports – https://pubmed.ncbi.nlm.nih.gov/41857143/