• KopfnussLOL@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      13
      ·
      1 year ago

      Hä komplett das Gegenteil bei uns im Kindergarten? Ca 3 von 25 Eltern haben es erlaubt. Sind nun immer die selben drei Kinder auf der Homepage vom Kindergarten Ü

    • Knecht@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      3
      ·
      1 year ago

      Wobei ich mich da schon Frage was an einem Gruppenbild von der Kindergartengruppe so schlimm sein soll? Hätte ich ehrlich gesagt auch kein Problem mit. Oder geht es da um Einzelbilder?

  • Lemmchen@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    21
    ·
    edit-2
    1 year ago

    Besonders perfide: Offenbar werden Kinderfotos häufig auch nachträglich bearbeitet und für die Verbreitung pornografischer Inhalte missbraucht. Julia Kaiser von der Landesmedienanstalt des Saarlandes beschreibt: “Durch Kinderbilder, die im Netz frei verfügbar sind, werden Tatgelegenheiten für Hersteller computeranimierter Kinderpornografie geschaffen. Aufnahmen bekleideter Kinder können so umgestaltet werden, dass sie leicht bekleidete oder gar nackte Kinder abbilden. So werden auch vermeintlich harmlose Bilder sexualisiert oder in einen sexuellen Kontext gestellt.”

    Sorry, wenn ich da jetzt mal entgegen argumentieren muss, aber das ist ein so dermaßen irrelevantes Randproblem. Da jetzt “Pädokriminelle” daraus zu machen und das als tatsächlich überall lauernde Gefahr darzustellen ist doch völlig absurd. Wisst ihr wie viel echtes CSAM existiert? Es ist enorm viel. Glaubt mal nicht, dass es irgendwer tatsächlich nötig hätte Familienbilder zu shoppen. Die Suche nach echtem Material ist sehr viel weniger aufwändig.

    Natürlich wird hier die Privatsphäre der Kinder verletzt. Und das sollte auch das Thema sein, worüber geredet werden muss. Aber doch nicht irgendwelche Räuberpistolen von nachträglich bearbeiteten Familienfotos, also echt. Ich würde es ja noch im Kontext “Deepfakes” verstehen, aber das wird ja hier quasi gar nicht erwähnt und selbst dann ist es ein allgemeines Problem und keines, welches auf Kinder beschränkt wäre.

    Vielleicht bin ich aber auch einfach zu kinderlos um das Ausmaß völlig zu verstehen, wer weiß.

  • Wirrvogel@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    17
    ·
    1 year ago

    Das ist so verrückt. Einerseits erlauben soziale Netzwerke, dass man seine Kinder in allen Lebenslagen der Öffentlichkeit präsentiert, aber wenn der Suchalgorithmus ein nicht veröffentlichtes, in deiner privaten Cloud bei Microsoft/Google/Apple gespeichertes, Badebild deines Kleinkindes entdeckt, wird dir der Account gesperrt und wieder bekommen ist ohne Anwalt aussichtslos und mit schwer bis aussichtslos.

    https://www.heise.de/hintergrund/Automatisierte-Scans-Microsoft-sperrt-Kunden-unangekuendigt-fuer-immer-aus-7324608.html

  • akarossa@feddit.deM
    link
    fedilink
    Deutsch
    arrow-up
    15
    ·
    1 year ago

    habe in whatsapp so viele menschen die mich fast nicht kennen (flüchtige arbeitskollegen, reisegruppen, usw), dennoch weiß ich alles über deren kinder. geburtstage, krankheiten, probleme… die müllen ihren status täglich mit updates und bildern zu, vollkommen egal wer das sieht.

    bin immer wieder aufs neue schockiert: eine person teilt auch manchmal intimere bilder, zb nach dem duschen in unterwäsche. von ihren kindern!! da war ich kurz davor eine nachricht zu schreiben um sie darauf hinzuweisen, dass anscheinend jeder den status sehen kann und sie keinerlei gewissheit hat, was mit den bildern passiert. verstehe nicht wie man so verantwortungslos handeln kann. schränkt doch wenigstens ein, wer den status sehen kann. bitte.

  • Tin@fedica.ch
    link
    fedilink
    arrow-up
    7
    ·
    1 year ago

    @Synecdoche Schon so oft wurde von verschiedenen Seiten darauf hingewiesen, Kinderfotos eben nicht auf dem Netz zu veröffentlichen. Aber zu oft kommt immer noch der Spruch, jeder solle doch machen dürfen, wie er wolle oder man habe nichts zu verbergen. Oh ja, die Digitalkompetenz der Leute ist noch heute leider an vielen Orten minimal.

  • neolazy@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    6
    ·
    1 year ago

    Ich muss gestehen, das ich das Problem null verstehe. Absolut gar nicht. Was ist die Gefahr?

    • jmcr@lemmy.ml
      link
      fedilink
      Deutsch
      arrow-up
      4
      ·
      edit-2
      1 year ago

      Mir kam das Problem mit den Bildern auch immer abstrakt vor. Als ob für Vegetarier Kochbücher mit Fleischgerichten genauso schlimm wären wie das Schlachten an sich.

      Generell gibt es glaub zwei Gefahren:

      1. Viktimisierung: Die fortgesetzte Zirkulation solcher Materialien kann zu anhaltendem psychischem Leid und Trauma bei den Opfern führen.
      2. Nachfrage: Wenn die Verbreitung nicht verfolgt wird, werden Täter ermutigt, neues Material zu produzieren. Somit schützt ein Verbot mittelbar Kinder vor Missbrauch.

      Im Artikel ist das Ganze nochmal abstrakter, weil es um Urlaubsfotos geht. In dem Fall greift wahrscheinlich nur der Viktimisierungsaspekt.

      • neolazy@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        1 year ago

        Danke für die ernsthafte Antwort.

        Viktimisierung kann ich ein bisschen nachvollziehen, allerdings muss das Opfer davon ja erst erfahren um ein Traum zu erleiden. Passiert das wirklich? Hier fehlt mir die Quantifizierung der anscheinend nicht vorhandenen Daten, den was auf irgendwelchen anderen Plattformen passiert bekommt man ja erstmal gar nicht mit.

        Zur Nachfrage finde ich auch das es auf die Urlaubsfotos nicht zutrifft. (Natürlich sollte die Verbreitung illegalen Inhalts verfolgt werden, aber davon ist hier nicht die Rede).