#plattformen (10 Ergebnisse)

The collage shows 4 archival images of women. In these of the images, the women are nude. There is also one portrait of a woman with yellow shapes and bounding boxes on her face.

Sexualisierte Deepfakes auf X: Was wir dagegen tun und was die EU tun sollte

Elon Musks Chatbot „Grok“ erzeugt auf der Plattform X Bilder echter Menschen in Bikinis ohne deren Zustimmung, darunter auch Kinder. Das Problem dieser sexualisierten Darstellungen durch KI geht jedoch weit über X hinaus, wie unsere Untersuchungen zeigen. X selbst hat unsere Forschungen jedoch blockiert. Die EU-Kommission muss viel entschlossener vorgehen, um Menschen vor dieser Art von Gewalt zu schützen.

Eine Person reinigt das Lobby eines Bürohauses.

Regulierung von Plattformarbeit lässt Reinigungskräfte im Regen stehen

Ich werde häufig gefragt, warum es nur wenige positive Visionen von KI gibt. Schließlich können Maschinen die Arbeit erträglicher machen und, vorausgesetzt, die sich aus ihrem Einsatz ergebenden Vorteile werden gerecht verteilt, zum Nutzen aller sein. Doch ganz so funktioniert generative KI leider nicht.

Zeitungsständer mit deutschen Tageszeitungen in Schwarzweiß-Aufnahme, darunter Die Zeit und Süddeutsche Zeitung

Gefährden Googles KI-Zusammenfassungen unseren Medienpluralismus? Neue Regeln ermöglichen Untersuchung.

Google könnte den Web-Traffic zunichtemachen, der bisher eine Lebensader für zuverlässige Informationen im Netz ist. Grund dafür sind die KI-Zusammenfassungen (AI Overviews) in Googles Suchfunktion, die Links zu anderen Websites zur Randfunktion degradieren und den Fokus auf kurze Zusammenfassungen lenken. Die sind jedoch keineswegs immer korrekt: So konnte man beispielsweise noch ein halbes Jahr nach der Bundestagswahl lesen, Olaf Scholz sei weiterhin Kanzler. AlgorithmWatch stellt nun einen der ersten Anträge auf Datenzugang nach neuen EU-Vorschriften, um die KI-Zusammenfassungen als systemisches Risiko für die Medienfreiheit zu untersuchen.

Google-Suchleiste mit dem eingegebenen Text 'ai overviews' auf einem dunklen Bildschirm

Pressemitteilung

Untersuchung: Gefährden Googles KI-Zusammenfassungen den Medienpluralismus?

AlgorithmWatch fordert von Google Daten über die Auswirkungen der neuen KI-Zusammenfassungen („AI Overviews“) auf die Zugriffszahlen zu externen Websites. Die NGO befürchtet, dass AI Overviews ein Risiko für die Meinungs- und Informationsfreiheit darstellen und ist eine der ersten Organisationen, die neue EU-Vorschriften nutzen, um Zugriff auf interne Daten großer Online-Dienste zu erhalten.

Pressemitteilung

DSA: Erste Risikobewertungsberichte über systemische Risiken von großen Online-Plattformen lassen viele Fragen offen

Liefern am Limit: Arbeitsrechte in der Gig Economy

Die digital gesteuerte Plattformarbeit verändert die Arbeitsbedingungen grundlegend und die gegenwärtige Gesetzgebung hinkt dieser Entwicklung hinterher. Deshalb setzt sich die Kampagne „Liefern am Limit“ für die Rechte von Lieferando-Fahrer*innen ein.

Risikofalle Social Media: Wie bekommen wir Algorithmen in den Griff?

Da uns personalisierte Empfehlungssysteme beeinflussen können, müssen wir herausfinden, welche Risiken von ihnen ausgehen. Die neue Transparenzregelung des DSA ist dazu ein wichtiger Schritt, dennoch brauchen wir Audits von unabhängigen Forschungsinstanzen.

Neues Projekt: Algorithmen auf systemische Risiken prüfen

Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.

Facebook demontiert CrowdTangle: Mehr Transparenz durch schlechteren Datenzugang?

Mit CrowdTangle können Akademiker*innen, Watchdog-Organisationen und Journalist*innen Desinformationen und andere problematische Inhalte auf der Plattform ausfindig machen. Facebook arbeitet daran, das Tool unbrauchbar zu machen, und handelt so gegen das eigene Versprechen, einen besseren Datenzugang zu gewährleisten.

Wurden Sie von Plattformen ignoriert? Erzählen Sie uns von Ihren Erfahrungen!

Regelmäßig weigern sich Plattformen, Daten für Forschung von öffentlichem Interesse zur Verfügung zu stellen – Researcher·innen werden ignoriert. Kommt Ihnen das bekannt vor? Erzählen Sie uns von Ihren Erfahrungen!