• gajustempus@feddit.org
    link
    fedilink
    arrow-up
    4
    ·
    8 days ago

    du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?

    Falls ja, solltest du dich unbedingt an einer entsprechenden Stelle bewerben. DAS können nämlich selbst die besten Experten nicht auf Anhieb.

    Und ein autonomes System - sorry, aber DAS ist der typische Claim, der leider immer wieder von Unwissenden durch die Medien getreten wird und zu dämlichen Diskussionen geführt hat. Effekt ist es nämlich bei wirklich vollautonomen Systemen so: Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN. Und wenn die Wartezeit ZU LANG wird, ruft das Fahrzeug daheim um Hilfe, schaltet sich aus der Ferne wieder ein Mensch auf und schaut, was denn los ist.

    So läuft es bspw. in den USA bereits bei Cruise und bei Waymo alltäglich. In den Medien sieht man dann lediglich Autos, die komisch rumstehen. Einfach, weil der Mensch nicht versteht, dass manche Risiken nicht eingenommen werden sollten bzw. eingenommen werden.

    • federal reverse@feddit.org
      link
      fedilink
      arrow-up
      3
      ·
      8 days ago

      du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?

      Habe ich nicht gesagt.

      Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN.

      Sollten sie. Und tun sie, je nach System, sicher in den meisten Fällen auch. Aber was genau ist dann bei Cruise in SF gelaufen? Und was genau läuft in Elmo seiner wilden Ideenbude?

      Aktuell sind wir jedenfalls nicht an einem Punkt, wo Normalbürgys irgendwie beurteilen können, ob sie gerade in ein einigermaßen sicheres System wie von Waymo oder in ein Katastrophensystem wie von Tesla steigen. Kein Zweifel, dass das besser wird und die schlechten Systeme irgendwann wegreguliert werden.

      Das wesentliche Problem bei KI-gestützten Anwendungen ist aber, dass nicht mal die Entwicklys richtig gut reinschauen können, was das System macht, geschweige denn Regulierungsbehörden. (Und Regulierungsbehörden sind ja schon überfordert von dEn AlGoRiThMeN.)

      • gajustempus@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        8 days ago

        keine Ahnung, was genau bei Cruise passiert sein soll. Bei Waymo gab es eine Situation, dass ein Wagen einen Passanten, der von einem von einem Menschen gesteuerten Pickup umgefahren und vor den Wagen geschleudert wurde, fast selbst überrollt hätte, weil besagter Mensch zwischen die Achsen geschleudert wurde.

        Und was Tesla angeht - verlinke mir bitte einen Hinweis darauf, dass die Firma bereits Level 4 oder gar 5-Fahrzeuge im Einsatz hat. Kenn ich nämlich keine

        Ergo: 100% Meinung, genau 0 Ahnung. Wieder mal

        • federal reverse@feddit.org
          link
          fedilink
          arrow-up
          2
          ·
          edit-2
          8 days ago

          Link zu der Geschichte mit Cruise. Ein Teil der Analyse war auch, dass das Unternehmen gelogen hat, was die autonomen Fähigkeiten seiner Fahrzeuge betraf und sehr viel mehr durch Menschen aus der Zentrale kontrolliert wird als gedacht.

          Bei Tesla suggeriert die Werbung seit zehn Jahren, dass die Dinger selbst fahren könnten *(demnächst, gegen geringen Aufpreis). Und seit es das System tatsachlich irgendwie gibt, sind Tesla-Autopilot-Videos quasi ein eigenes Genre geworden.

          Uber war noch so ein Investment-Vehikel.

          Mein Punkt ist, dass autonomes Fahren prinzipiell möglich ist, aber dem Ganzen fehlt es, sowohl aufgrund unzureichender Regulierung als auch aufgrund der Investorys an Reife.