Als die Nutzer die neuen (im Februar still und leise aktualisierten) Nutzungsbedingungen von Adobe entdeckten, gab es eine Welle der Empörung. Adobe hatte die Nutzer darüber informiert, dass das Unternehmen „sowohl durch automatisierte als auch durch manuelle Methoden“ auf ihre Inhalte zugreifen und „Techniken wie das maschinelle Lernen zur Verbesserung [seiner] Dienste und Software“ einsetzen kann. Viele interpretierten das Update als einen Versuch des Unternehmens, die Nutzer zu zwingen, unbegrenzten Zugriff auf ihre Arbeit zu gewähren, um Adobes generative künstliche Intelligenz, bekannt als Firefly, zu trainieren.
Die Reaktion der kreativen Gemeinschaft
Nach Protesten von Künstlern gab Adobe eine Klarstellung heraus: In einer neuen Version seiner Nutzungsbedingungen verpflichtete sich das Unternehmen, die KI nicht auf lokal oder in der Cloud gespeicherten Benutzerinhalten zu trainieren, und gab den Benutzern die Möglichkeit, sich gegen die Inhaltsanalyse zu entscheiden. Viele Künstler bleiben jedoch skeptisch, was die wahren Absichten von Adobe betrifft.
Jon Lam, ein leitender Storyboard-Künstler bei Riot Games, sagt: „Sie haben unser Vertrauen bereits missbraucht“. Er bezieht sich dabei auf den preisgekrönten Künstler Brian Kesinger, der herausfand, dass seine Arbeiten ohne seine Zustimmung auf Adobes Stock-Image-Plattform in Form von generierten Bildern verkauft wurden. Auch das Erbe des Fotografen Ansel Adams hat Adobe öffentlich gerügt, weil es angeblich KI-generierte Imitationen seiner Werke verkauft hat.
Adobes Position und die Bedenken der Künstler
Scott Belsky, Chief Strategy Officer bei Adobe, versuchte, die Künstler zu beruhigen, indem er klarstellte, dass sich das maschinelle Lernen auf Adobes nicht-generative KI-Werkzeuge bezieht, wie z.B. das Photoshop-Werkzeug „Content Aware Fill“. Trotz Adobes Beteuerungen sind Künstler wie Lam jedoch nach wie vor davon überzeugt, dass das Unternehmen die auf seiner Plattform erstellten Werke zum Trainieren von Firefly verwenden wird, ohne die Zustimmung der Urheber zu haben.
Das Problem des geistigen Eigentums und der generativen KI
Die Besorgnis über die ungenehmigte Nutzung und Monetarisierung von urheberrechtlich geschützten Werken durch generative KI-Modelle ist nicht neu. Der Künstlerin Karla Ortiz gelang es, Bilder ihrer Werke unter Verwendung ihres Namens auf verschiedenen generativen KI-Modellen zu erzeugen, was zu einer Sammelklage gegen Midjourney, DeviantArt und Stability AI führte. Der polnische Fantasy-Künstler Greg Rutkowski entdeckte ebenfalls, dass sein Name einer der am häufigsten verwendeten Prompts in Stable Diffusion war, als das Tool 2022 eingeführt wurde.
Das Monopol von Adobe und die Herausforderungen für Künstler
Als Eigentümer von Photoshop und Erfinder von PDF dominiert Adobe seit über 30 Jahren die Kreativbranche. Sein Versuch, das Produktdesign-Unternehmen Figma zu übernehmen, wurde 2023 aufgrund kartellrechtlicher Bedenken blockiert und aufgegeben, was seine Größe widerspiegelt.
Bedenken über die Gründung von Firefly
Adobe behauptet, dass Firefly auf Adobe Stock „ethisch trainiert“ wurde. Eric Urquhart, ein langjähriger Anbieter von Stockbildern, besteht jedoch darauf, dass „die Art und Weise, wie Adobe die KI für Firefly trainiert hat, in keiner Weise ethisch war“ und weist darauf hin, dass Adobe nicht die Rechte an den Bildern der einzelnen Anbieter besitzt. Urquhart hatte seine Bilder ursprünglich auf Fotolia hochgeladen, wo er Lizenzbedingungen zustimmte, die keine Verwendung für die generative KI vorsahen. Fotolia wurde dann im Jahr 2015 von Adobe übernommen, das im Stillen Änderungen an seinen Nutzungsbedingungen vornahm, die es dem Unternehmen später ermöglichten, Firefly mit Urquharts Fotos ohne seine ausdrückliche Zustimmung zu trainieren.
Die Auswirkungen auf Künstler und Regulierungsinitiativen
Seit der Einführung von Firefly haben einige Künstler die schwierige Entscheidung getroffen, sich von Adobe abzumelden und zu Tools wie Affinity und Clip Studio zu wechseln. Andere fühlen sich zwangsweise an die Software gebunden. Beruflich kann ich Adobe nicht aufgeben“, sagt Urquhart.
Adobe hat in der Vergangenheit seine Verantwortung gegenüber der kreativen Gemeinschaft erkannt. Im September 2023 kündigte das Unternehmen die Gesetzesinitiative Federal Anti-Impersonation Right (FAIR) an, mit der Künstler vor der widerrechtlichen Aneignung ihrer Werke geschützt werden sollen. Die Wirksamkeit dieses Gesetzes wurde jedoch in Frage gestellt, da es keine ‚zufällig generierten‘ Werke im Stil eines Künstlers schützen würde.
Neben Adobe finden auch andere Organisationen neue Wege, um Werke zu authentifizieren und den Diebstahl geistigen Eigentums zu verhindern. Ein Forscherteam an der Universität von Chicago hat Nightshade entwickelt, ein Tool, das Trainingsdaten „vergiftet“ und Iterationen von KI-Bilderzeugungsmodellen beschädigt, sowie Glaze, ein Tool, das Künstlern hilft, ihren eigenen Stil vor KI-Unternehmen zu „maskieren“.
Artikelquelle hier.