Wir alle sind immer irgendwo in unserer eigenen, kleinen Blase unterwegs und verfolgen unsere eigenen Themen. Ich würde gerne einen Einblick von euch bekommen, was gerade bei euch so abgeht, passiert, etc. Was rollt auf euch zu? Was beschäftigt eure Branche gerade am meisten? Jetzt gerade und perspektivisch?

Ich z.B. arbeite im Verlagswesen. Bei uns findet gerade wegen KI ein großer Umbruch im ganzen publishing Bereich statt. Außerdem: Jedes Unternehmen - egal ob die Volksstimme in der Börde oder die NYT - sucht gerade alternativen zur Typischen Paywall. Alle wissen, dass das kein langfristiges Konzept ist, was die Branche trägt.

  • quzyp@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    16
    ·
    2 years ago

    Ja, das fällt mir sogar als Hobbyprogrammierer auf. Jeder schlägt für alles KI vor, auch wenn es überhaupt keinen Sinn macht. Keine Sau braucht KI im Auto, das Ding muss zuverlässig und deterministisch funktionieren.

    Ich persönlich warte auf genau eine einzige Anwendung von KI in meinem Alltag: Home Assistant mit meinen eigenen Mikrofonen, TTS und Sprachsynthese, API-Anbindung an ChatGPT-4. Der Witz dabei muss natürlich sein, dass die KI die Bezeichnungen meiner Geräte und Räume kennt und versteht.

    Ist sicherlich heute schon machbar, habe aber aktuell keine Zeit mich da reinzufuchsen.

    • ebikefolder@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      13
      ·
      2 years ago

      “KI” ist vielleicht einfach die neue Buzzword-Sau die durchs Dorf getrieben wird, weil “Blockchain” inzwischen langweilig geworden war.

      • quzyp@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        11
        ·
        2 years ago

        Im Gegensatz zu Blockchain ist KI aber gekommen um zu bleiben. Ist ja nicht umsonst Thema in der Informatik seit es die Informatik gibt. Die aktuelle Frage ist nur, welche LLM-Anwendungen tatsächlich sinnvoll sind und in der Praxis Vorteile bringen.

        • grallo@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          7
          ·
          2 years ago

          Die Technologie Blockchain ist auch gekommen um zu bleiben, nur eben 99% der derzeitigen Blockchain-Projekte nicht.

        • aksdb@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          5
          ·
          2 years ago

          LLMs tatsächlich für Sprache einsetzen ist schon cool. Also zusammenfassen, umformulieren, vlt sogar passenden Puffertext erzeugen.

          Auch Modelle wie Stable Diffusion sind super, wenn man irgendwelche unverfänglichen Aufhängerbilder o.ä. braucht.

          CoPilot funktioniert als Assistent beim Programmieren auch schon erschreckend gut. Spart stellenweise eine Menge Tipparbeit.

          Sind halt alles Werkzeuge. Eigenständig sinnvoll ist davon nichts.

        • Knusper@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          5
          ·
          2 years ago

          Stimmt zwar an sich schon, aber im Grunde ändert sich die Bedeutung von “KI” alle paar Jahre, bzw. wofür es als Buzzword wirklich steht.

          In den 50ern war die böse KI, die Leuten ihre Arbeitsplätze weggenommen hat, das, was wir heute als “Taschenrechner” bezeichnen würden (nur, dass die damals in keine Tasche gepasst hätten).

          Und vor ein paar Jahren war mit “KI” i.d.R. ein Machine Learning Modell gemeint. Jetzt ist eben KI = LLM, und in ein paar Jahren hat “KI” dann vielleicht Sensoren oder ein Gesicht.

          • konodas@feddit.de
            link
            fedilink
            Deutsch
            arrow-up
            1
            ·
            2 years ago

            Das ist denke ich so nicht ganz richtig.

            In den 50ern standen such-basierte ansätze im vordergrund die automatisiert Spiele wie Schach spielen, mathematische Theoreme beweisen, oder allgemein logische schlüsse ziehen konnten. Mein taschenrechner kann das nicht. (Neuronale netze gab es auch schon, wenn auch nicht ganz in der heutigen form.)

            Als sich das als zu unflexibel für reale anwendungsfälle erwies wurde im bereich probabilistische systeme gearbeitet, welche mit unsicherheit umgehen konnten. Aber auch hier kannte man die regeln nach denen das system arbeitet noch.

            In den 90ern, als es durch mehr EDV auch größere datensätze gab, haben sich in eineigen anwendungsfällen machine learning systeme durchgesetzt, welche die regeln anhand von daten selbst lernen.

            Seit den 10ern hat sich gezeigt, dass sich machine learning ansätze, insbesondere neuronale netze, mit mehr daten und rechenleistung scheinbar beliebig skallieren lassen. Und das ist im wesentlichen das, was seit 11 jahren passiert.

            LLM sind nur skalierte machine learning modelle für sprache. Die grundlagen kommen aber aus den 50/60ern.

            • Knusper@feddit.de
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              2 years ago

              Dagegen kann ich nicht wirklich argumentieren, weil mein Kommentar im Kern den Inhalt dieses (gut recherchierten) Vortrags widerspiegelt: https://tube.bawü.social/w/1c464828-a83e-4ff9-b264-197ba7968204

              Ich könnte mir aber vorstellen, dass es einfach einen Unterschied zwischen Forschungsthemen und öffentlicher Wahrnehmung gab. Also vielleicht war es tatsächlich oft die selbe, zu Grunde liegende Technologie, die aber immer wieder zur Lösung neuer Probleme eingesetzt werden konnte.

    • Odiousmachine@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      2 years ago

      Das ist doch bei jeder Technologie, die neuartig ist. Es werden jegliche Lösungen heraufbeschworen ohne genauer über das Problem nachzudenken.

      Ich stecke in der KI-Materie nicht super tief drin, aber verstehe es hinreichend. Da nervt es schon, wenn man es mit Leuten zu tun hat, die nur in LinkedIn-Hashtags denken und die Sinnhaftigkeit der Technologie nicht verstehen.