mboost-dp1

No Thumbnail

Manchester Universitet udvikler ‘synschip’ til robotter

- Via EETimes - , redigeret af Pernicious

Manchester Universitet er igang med et stort projekt, hvis formål er at udvikle en chip, som vil gøre robotter i stand til at opfatte verden, som vi gør det.

Det ‘nye’ i chip-designet er, at chippen efterligner den menneskelige hornhinde i sin opbygning og funktion, hvilket betyder, at robotter vil opnå et syn tæt på vores.

Formålet med ‘REVERB’, som projektet kaldes, er at undersøge hvordan hjernen og synet abejder sammen i situationer, hvor handlinger er afhængige af input fra øjene.





Gå til bund
Gravatar #1 - Nvidiot
25. maj 2005 00:36
Sindssygt interessant. Med streg under sindssygt.

Jeg så engang et program på Discovery om hvordan man skulle få robotter til at blive mere kloge end mennesker. Fordi hvad gør man? Man skulle tro at man bare fodrede den med alverdens korrekte data, facts og leksikons, men det er ikke muligt pga. ingen computere ville være stærke nok til at udregne det info(i den skala).

Istedet, skal computere "oplæres" ligesom små børn lærer. Meget god ide, men lær den nu ikke nogen dårlige vaner.
(fx burde alle 'Plasma-rifler 40 watt's range', gemmes LANGT af vejen!).
Gravatar #2 - Azjo
25. maj 2005 01:55
Forhåbentligt kan de med tiden osse bruges til blinde mennesker.
Gravatar #3 - IzeBurn
25. maj 2005 05:43
Jeg syntes nu, ligesom #2 at det kunne være langt mere interessant hvis dette rent faktisk kunne udvikle sig til en form for erstatning for dårligt seende mennesker og mennesker der ligefrem er blinde. At miste synet er vel immervæk det største handicap man kan blive udsat for - vi er afhængig af synet på mange flere måder end vi er afhængig af mange andre af vores kropsdele.
Gravatar #4 - PikkeMand
25. maj 2005 05:58
Det lyder som et fantastisk projekt hvis de altså får et godt resultat ud af det.

Jo flere funktioner der kan pakkes ned i standardiserede chips, desto nemmere bliver det for folk at lave funktionelle robotter uden at skulle opfinde den dybe tallerken først.
Gravatar #5 - TGS
25. maj 2005 06:16
#3 har faktisk fået fortalt at den værste sans at miste er hørelsen! du kan ikke længere deltage i alt muligt socialt fordi du simpelthen ikke kan følge med!
men det lyder ualmindeligt interresant
Gravatar #6 - guppy
25. maj 2005 06:42
#1 det kalder neurale netværk ( modsat ekspertsystemer der skal fodres med info fra starten og ikke kan lærere ) og er ældre en fanden selv. Der er dog endnu ikke nogen der har fundet en ordentlig mekanisme til at ballancerer "neuronerne"s referencer.. ikke at der ikke er/har været en del folk med sinsygt advanceret matematik på banen, så der går nok et par år for vi kan få noget i stil med skynet :)


edit: ram/cpu/bundkort ? hvaa.. der er jo ikke tale om et ny web cam ^_^
Gravatar #7 - TYBO
25. maj 2005 07:22
Gammel nyhed. Dette kunne Robocop da for mange år siden :)
Gravatar #8 - anri
25. maj 2005 08:30
En ting er at se, en anden ting er at forstå hvad man ser. Det kan godt være at en robot kan se et spisebord, men det gør den ikke nødvendigvis i stand til at identificere en tallerken, kniv/ gaffel eller peberbøsserne. Der skal noget software til, der kan genkende det enkelte objekt fra alle vinkler og hvis objektet afviger meget fra den programmerede standard, så vil det være lige fedt.
Gravatar #9 - x3me-brain
25. maj 2005 09:11
#6
Vi er vel heller ikke nået så langt at vi har hardware nok til neurale netværk af den størrelse som der lægges op til. Selvom der måske ikke skal så meget logik til en enkelt neuron, så er der AFAIK omkring 10^15 neuroner i den menneskelige hjerne. Med kontrol logik bliver det en del transistorer...
Gravatar #10 - jaghut
25. maj 2005 09:20
Det er i hvert fald ikke hornhinden der er tale om - den registrerer ingenting. "Retina" er nethinden i øjet.
Gravatar #11 - trylleklovn
25. maj 2005 09:34
#8 præcis, for at "robotten" kan opfatte verdnen omkring som en 3d verden skal den først lære nogle "simple" regler i forhold til lys/skygger og objekter i 3d. Og så skulle "robotten" selvfølgelig have 2 "øjne" for også at kunne afstandsbedømme ..
Det kræver bare at "robotten" kan lave nogle pæænt indviklede matematiske udregninger på meget kort tid.. og den skal jo så udover det også finde ud af om/hvordan den skal reagere på det den ser.
Gravatar #12 - Onde Pik
25. maj 2005 09:49
Jeg tror også jeg forholder mig afventende med min begejstring. Som flere har været inde på er det tolkningen af de vi ser der tar lang tid. Selv den menneskelige hjerne kommer til kort her. F.eks kan du taste 50 tilfældige tal ind i notepad, glo på dem i 10 sekunder, minimere notepad og prøve at sige dem alle højt.

Det er for de fleste en umulig opgave at huske dem alle. Hjernen prioritere også synsindtryk, og derfor er det svært at huske nøjagtige detaljer om hvad du har set de sidste 5 minutter. Kan godt være du kan huske at alle parkerikspladserne var fyldte på den vej du lige er gået af, og at der var en stor sort varevogn parkeret. Men kan du huske alle nummerpladerne? Nej.

Det er svært at få computere til selv at kunne tolk hvad der er "vigtigt" at huske. Fordi det jo kommer an på situationen, og jeg tvivler på at denne nye chip vil kunne ændre radikalt på dette. Det er svært nok at få en robot til at finde en rød bold på en grøn bane, så robotter der kan se som menesker er ikke lige om hjørnet. Det med den røde bold kræver i forevejen mange beregninger.

Det er også nærmest umuligt for en robot udelukkede via 'syn' at bestemme om et objekt bevæger sig eller om det er robotten selv der bevæger sig. Det kræver uhyre mange beregninger og forståen som robotter slet ikke har. Her har hjernen en fordel men det kan på trods af det ikke altid lade sig gøre at afgøre. Har du f.eks ikke siddet i et tog og kigget ud af vinduet på et andet tog. Pludselig bevæger det andet tog sig... eller er det toget du sidder i? Det er du nødt til lige at overveje før du er sikker.
Gravatar #13 - pulven
25. maj 2005 10:19
jeg tror vi kommer til at se en form for hybrid mellem mnnekser og computere istedet for et matrix agtigt system hvor computere og mennesker.. trods at menneskerne bliver sluttet til med et stort stik i nakken, er 2 adskilte ting. Som 2# og 3# er inde på kan sådan noget teknologi bruges til at hjælpe folk, og vi vil nok inde for en temmelig nær fremtid se højteknologiske proteser.. og så bliver spørgsmålet hvor meget man kan skifte ud før man ikke kan kalde folk for mennesker mere..

en robot som har samme "hjernekapacitet" som mennesket skal vel sådanset bare have de samme sanser som mennesket stillet til rådighed for at udvikle dem.. Deres eneste fidus i forhold til mennesket ville vel nok være en enormt kraftig lommeregner, og et lager hvor de kunne opbevarer alle de indtryk de fik.
Gravatar #14 - annes
25. maj 2005 10:38
#11 og tildels #12
Selvom det kræver de svære udregninger i snakker om, har man alligevel lært en robot arm at gribe og kaste en bold. Skal dog undlade detaljerne, da det er længe siden jeg så noget om det i tv. Men det var vist noget med 2-4 kameraer der opfangede boldens bane og hastighed.
Gravatar #15 - Onde Pik
25. maj 2005 11:51
#14

I det eksempel som du illustrere vil jeg mene at det nettop er selve det at opfatte bolden som objekt i rummet der tar lang størstedelen af beregningerne.

Selve det med at beregne boldens bane ud fra hastighed og retningsvektor er en forholdsvis hurtig process for en almindelig computer.
Gravatar #16 - Whoever
25. maj 2005 17:18
#2 har fat i det rigtige her. Kunne være cool med noget lign. ghola øjne (fra Dune).

Men at give robotter samme syn som os, virker ikke helt så fandens smart medmindre man udvider med ekstra funktionalitet. F.eks. ser vi mennesker jo ad h. til om natten, hvilke man så kunne kompensere for i kunstige øjne.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login