Player FM 앱으로 오프라인으로 전환하세요!
Matthias Spielkamp über Kontrolle Künstlicher Intelligenz
Manage episode 379383753 series 2477711
»Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, so heißt es in einem offenen Brief, den zahlreiche Prominente aus der IT-Szene unterzeichnet haben.
Doch was ist eigentlich damit gemeint, wenn von KI-Risiken die Rede ist? Geht es dabei um Horrorszenarien, die wir sonst aus Science-Fiction Romanen kennen, wo sich KIs selbstständig machen und der Menschheit den Kampf ansagen? Oder sind damit nicht eher ganz alltägliche Use-Cases beim Einsatz dieser Technologie gemeint?
Matthias Spielkamp ist Gründer und Geschäftsführer der Organisation Algorithm Watch. Er beschäftigt sich seit vielen Jahren mit dem Einfluss automatisierter Entscheidungssysteme auf unsere Gesellschaft. Von ihm will ich wissen: Müssen wir uns Sorgen machen? Und was können wir eigentlich tun, um Risiken beim Einsatz von KIs zu reduzieren?
Diesen Podcast unterstützen
IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)
Paypal: https://www.paypal.me/kattascha
Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha
Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!
Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)
Weiterführende Quellen
Zeit: Hunderte Unternehmer und Forscher fordern KI-Pause
Zeit: Alles unter Kontrolle (Offener Brief)
Nicholas Diakopoulos: Algorithmic Accountability: On the Investigation of Black Boxes
Vorgeschichte von Dune: Butlers Dschihad (ich habe im Podcast „Maschinen sind verboten“ gesagt – ich meinte natürlich KIs)
Diskriminierung bei Empfehlungssoftware für Gerichte
Netzpolitik.org: Die sechs größten Probleme im EU AI Act
AlgorithmWatch fordert Regulierung von „General Purpose AI“
Forderung nach einem Verbot biometrischer Überwachung
Offener Brief gegen algorithmenbasierte Diskriminierung
Ratgeber für Antidiskriminierungsstellen
KI & Folgen für Nachhaltigkeit
Bild: Julia Bornkessel, CC BY 4.0
52 에피소드
Manage episode 379383753 series 2477711
»Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, so heißt es in einem offenen Brief, den zahlreiche Prominente aus der IT-Szene unterzeichnet haben.
Doch was ist eigentlich damit gemeint, wenn von KI-Risiken die Rede ist? Geht es dabei um Horrorszenarien, die wir sonst aus Science-Fiction Romanen kennen, wo sich KIs selbstständig machen und der Menschheit den Kampf ansagen? Oder sind damit nicht eher ganz alltägliche Use-Cases beim Einsatz dieser Technologie gemeint?
Matthias Spielkamp ist Gründer und Geschäftsführer der Organisation Algorithm Watch. Er beschäftigt sich seit vielen Jahren mit dem Einfluss automatisierter Entscheidungssysteme auf unsere Gesellschaft. Von ihm will ich wissen: Müssen wir uns Sorgen machen? Und was können wir eigentlich tun, um Risiken beim Einsatz von KIs zu reduzieren?
Diesen Podcast unterstützen
IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)
Paypal: https://www.paypal.me/kattascha
Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha
Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!
Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)
Weiterführende Quellen
Zeit: Hunderte Unternehmer und Forscher fordern KI-Pause
Zeit: Alles unter Kontrolle (Offener Brief)
Nicholas Diakopoulos: Algorithmic Accountability: On the Investigation of Black Boxes
Vorgeschichte von Dune: Butlers Dschihad (ich habe im Podcast „Maschinen sind verboten“ gesagt – ich meinte natürlich KIs)
Diskriminierung bei Empfehlungssoftware für Gerichte
Netzpolitik.org: Die sechs größten Probleme im EU AI Act
AlgorithmWatch fordert Regulierung von „General Purpose AI“
Forderung nach einem Verbot biometrischer Überwachung
Offener Brief gegen algorithmenbasierte Diskriminierung
Ratgeber für Antidiskriminierungsstellen
KI & Folgen für Nachhaltigkeit
Bild: Julia Bornkessel, CC BY 4.0
52 에피소드
모든 에피소드
×플레이어 FM에 오신것을 환영합니다!
플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.