Aktuelle Robotikmodelle verdeutlichen, wie unglaublich effizient das menschliche Gehirn ist. Robotikmodelle sind relativ klein (niedrige Milliarden von Parametern), speichern nur eine Sekunde Kontext und führen Inferenzschritte in 100 ms durch. Im Gegensatz dazu hat das menschliche Gehirn 100 Billionen Synapsen (ungefähr analog zu Parametern), verarbeitet 24 Bilder pro Sekunde und berücksichtigt Stunden von vorherigem Kontext. Wie erwarten wir also, dass wir in all diesen Dimensionen (die sich in Bezug auf die Inferenzberechnung gegenseitig beeinflussen) gleichzeitig viele Größenordnungen an Verbesserungen in der Robotik erzielen? Und wie erklären wir, was im Gehirn vor sich geht? Ist es eher analog zu einem Softwarevorteil oder einem Hardwarevorteil? Die gesamte Episode mit @svlevine ist jetzt verfügbar!