Podcast Ranga Yogeshwar: "Wir müssen uns fragen, welche Ziele KIs verfolgen"

Wie gefährlich ist KI?

Künstliche Intelligenz scheint die Technologie der Zukunft zu sein. Überraschend ist deshalb nun die Forderung von Technologiegrößen wie Steve Wozniak und Elon Musk und Forschern aus aller Welt, eine Pause bei der Entwicklung von KI einzulegen. Ist KI also eine Gefahr? Wissenschaftler Ranga Yogeshwar hat die Forderung mitunterzeichnet und erklärt wieso.