Ob du zu einem Vorstellungsgespräch eingeladen wirst, einen Kredit oder die neue Wohnung bekommst – immer öfter entscheiden Algorithmen mit. Doch sie sind nicht neutral. Weil #AlgorithmischeDiskriminierung oft so schwer zu erkennen ist, haben wir ein Meldeformular erarbeitet. Ihr vermutet, dass euch ein automatisiertes System diskriminiert haben könnte? Oder kennt eine Person, der das passiert ist? Dann meldet den Fall jetzt an #AlgorithmWatch! Wir schauen genauer hin und gehen jedem Fall nach: https://lnkd.in/dqndnCck Auch wenn du dir nicht ganz sicher bist: Melde dich lieber einmal zu viel als einmal zu wenig. Mit deiner Meldung hilfst du, unsichtbare #Diskriminierung sichtbar zu machen. Nur mit einschlägigen Beweisen können wir Betreiber*innen diskriminierender Systeme dazu bringen, nötige Korrekturen vorzunehmen und uns für notwendige Regulierung einzusetzen.
AlgorithmWatch
Gemeinnützige Organisationen
Berlin, BE 17.974 Follower:innen
Wir setzen uns dafür ein, dass der Einsatz von Algorithmen & KI uns allen – nicht nur einigen Wenigen – zugutekommt.
Info
AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Zürich und Berlin. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.
- Website
-
https://algorithmwatch.org/
Externer Link zu AlgorithmWatch
- Branche
- Gemeinnützige Organisationen
- Größe
- 11–50 Beschäftigte
- Hauptsitz
- Berlin, BE
- Art
- Nonprofit
- Gegründet
- 2016
- Spezialgebiete
- Automated decision-making, ADM, Automatisierte Entscheidungen, Algorithmic Accountability Reporting, Algorithmic Accountability, Research, Data Donation, Datenspende, Forschung, Advocacy, Automation, Journalism, Data Journalism, Watchdog, Civil society, Civil society organisation, Human rights, Algorithm, Data sovereignty, Datensouveränität, Datenjournalismus, Automatisierte Entscheidungsfindung, ADMS, CSO, NGO, AIEthics, EthicsGuidelines und ADMS
Orte
-
Primär
Boyenstraße 41
Berlin, BE 10115, DE
Beschäftigte von AlgorithmWatch
Updates
-
Our AlgorithmWatch CH team talk about algorithmic discrimination in #HR - join the online roundtable on Monday to learn more! 🚨 Online Roundtable: Challenges and Solutions towards Anti-Discrimination Assessment of Algorithmic Tools in the Hiring Sector 📅 14 July 2025 | 🕒 Time: 13.30–15.00 CEST | 💻 Format: Online via Zoom 🔗 Register here: https://lnkd.in/dbq9YPRH
-
Konto gesperrt? Das kann algorithmische Diskriminierung sein! Ohne Grund ist das Bankkonto geschlossen, Rechnungen können nicht mehr bezahlt werden, es kann nichts mehr abgehoben werden. Dahinter können algorithmische Entscheidungssysteme stecken. Unsere Recherche zeigt, dass bereits Tausende Menschen betroffen sein könnten. 🎙️ Falsch Positiv – der neue Podcast von @algorithmwatch & @afpfr erzählt ihre Geschichten. Jetzt reinhören: bei Spotify, Apple Podcasts, Deezer oder direkt auf unserer Webseite: https://lnkd.in/dKD2pVnR 🗣️ Du bist betroffen? Melde deinen Fall und mach #AlgorithmischeDiskriminierung sichtbar: https://lnkd.in/d7UjnCZy
-
Der Digitalausschuss des Bundestags soll nicht mehr öffentlich tagen. Diese Entwicklung ist ein Rückschritt, den wir scharf kritisieren. In einem offenen Brief wenden sich über 20 Organisationen aus der Zivilgesellschaft an den Vorsitzenden des Ausschusses für Digitales und Staatsmodernisierung, Hansjörg Durz (CDU/CSU), sowie an die Obleute aller demokratischen Fraktionen: https://lnkd.in/duPKbSKT "Digitale Gesetzgebung berührt Grundrechte, Machtverhältnisse und gesellschaftliche Zukünfte. Intransparenz gefährdet das Demokratieprinzip, das Recht auf Information und widerspricht dem verfassungsrechtlichen Anspruch auf öffentliche Kontrolle parlamentarischer Prozesse."
-
📢 We have just launched a new call for our Algorithmic Accountability Reporting fellowship! For a fifth time, AlgorithmWatch is looking for new Algorithmic Accountability Reporting fellows. Apply now if you have research ideas concerning the relation between Artificial Intelligence and power and its consequences. This includes a wide range of possible investigation topics around the impact of AI in society, including algorithmic discrimination. For the past two years, former fellows based in countries across all Europe have investigated a wide variety of topics, from data centers to automated discrimination by financial institutions to violation of rights of data workers along the AI supply chain. 🗓️ The new fellowship will run between November 2025 and May 2026 and provide mentoring and economic and outreach support. ⏰️ The call will be open until 15 September 2025 23:59 CET. ⁉️ Need to know more? We will host two Q&A sessions on August 20 and September 8 to solve doubts and further questions. ℹ️ All the info on how to apply can be found here: https://lnkd.in/dA3hP2rj 👨🎓👩🎓 And here you can find our Algorithmic Accountability Reporting fellows from previous years: https://lnkd.in/duysQMJU
-
-
The majority seems to support European enforcement of laws addressing the influence and power of Big Tech companies, according to the results of a recent survey realized by YouGov. At least in the countries where the respondents came from: France, Germany, and Spain. The survey, initiated by People vs Big Tech, also revealed other interesting results 📊, which can be found here: https://lnkd.in/excg9cJ6
-
-
Die Entwicklungen im Bereich Künstliche Intelligenz sind die größte technologische Revolution seit dem Internet. In einem Beitrag für Einsteiger*innen geben wir eine Übersicht darüber, welche Gefahren und Risiken von KI für die Grundrechte, die Demokratie und die Umwelt ausgehen. Vielleicht genau das Richtige, um Bekannten 👭 und Verwandten 🧓, die bisher wenig Berührung mit dem Thema hatten, ins Boot zu holen: https://lnkd.in/erM8qp4P
-
Last week, the Delegated Act 📃 on data access under the Digital Services Act (DSA) was published. The act regulates how access to non-public data for research purposes 🔎 must be provided by very large online platforms and search engines, including how to ensure data privacy and security. Oliver Marsh, Head of Tech Research in our team, sums it up as follows: “The publication of this Delegated Act is a long-awaited step forward for research into online risks in the EU. If it works effectively, it allows researchers to access to internal data of very large online platforms and search engines which is relevant to understanding risks in the EU. But in the end, only when researchers actually try using it we will see, whether this 'if condition' will actually be fulfilled. The way the Delegated Act is written is quite promising, as it means researchers can work with their national regulators to get data from the platforms in a privacy-preserving way. However, we have already seen that many platforms have shown disappointing levels of compliance with various articles of the DSA, from public data provisions to risk assessments. The regulators will need to be firm with platforms to ensure these promising rules actually help researchers to identify and protect online risks.” More on this topic here on our website: 👉 https://lnkd.in/e5srtwse
-
European governments are encouraging the development of so-called “green” algorithm and “green” #AI. There is a curious ambiguity in the use of this label: It can be understood as systems that are designed to be sustainable, i.e. algorithms that do not contribute to heavy carbon emissions and aggravate the climate crisis, or systems that instead are used to mitigate environmental impact. In any case, are they reaching expectations? Read all about it in this week’s #AutomatedSociety, our specialized newsletter on the impact of automation in society. Tomorrow in your inbox 📬 If you are not subscribed yet, do so now and share with your colleagues: https://lnkd.in/eN-aJx7D.
-
-
Mass surveillance in public spaces is becoming a reality in the European Union (EU), despite EU laws designed to protect us. As a result, our fundamental rights are under massive attack. We cannot stand by and do nothing − stop facial recognition, sign our joint petition now ✒️: 👉 https://lnkd.in/e4UHuudE 👈 On 28 June, the Pride parade 🌈 shall take place in Budapest. The Hungarian police is, by Hungarian laws, allowed to use face recognition systems even for minor “offenses”, which includes attending the Pride parade. Anyone taking part in the Pride parade could now be identified from a distance and be punished using this technology. 🤯 ℹ️ This form of mass surveillance leads to a decline of our fundamental rights. Using intrusive surveillance technology may have a chilling effect on free speech and the right to protest freely. 🦷 Now is the time for the EU to show its teeth and enforce the AI Act, as this act prohibits face recognition in public spaces for surveillance purposes. The EU member states need to consider this a wake-up call and put an end to face recognition in public spaces.
-