by Center for Advanced Internet Studies, Matthias Begenat
In welcher digitalen Gesellschaft wollen wir eigentlich leben? Dieser Frage widmet sich die CAISzeit. Im Podcast des Center for Advanced Internet Studies (CAIS) diskutieren wir mit Forscher:innen aus verschiedenen Disziplinen, wie die Digitalisierung unsere Gesellschaft verändert. Welche Gefahren gibt es im digitalen Raum und welche Potentiale eröffnet er? Welche digitalen Innovationen bestimmen die Zukunft? Wie verändern digitale Technologien schon jetzt, wie wir arbeiten, uns informieren und uns unsere Meinung bilden? Vor dem Hintergrund wissenschaftlicher Forschung blicken Dr. Matthias Begenat und seine Gäste auf Phänomene der digitalen Transformation. Der digitale Wandel ist dabei mehr als eine rein technologische Entwicklung. Vielmehr ist er ein Prozess, der Politik, Wirtschaft, Medien, Kultur und unser gesamtes soziales Zusammenleben prägt.
Language
🇩🇪
Publishing Since
2/1/2021
Email Addresses
1 available
Phone Numbers
0 available
March 25, 2025
Was macht einen erfolgreichen Wissenschaftspodcast aus? Und wie können Inhalte nachhaltig und wirkungsvoll in die Öffentlichkeit gebracht werden? Welche Themen eignen sich besonders für dieses Medium? In der 21. Episode der CAISzeit geht es darum, wie Podcasts Wissen nachhaltig in den gesellschaftlichen Diskurs einbringen können. Dr. Charmaine Voigt und Birte Kuhle vom GESIS - Leibniz-Institut für Sozialwissenschaften geben Einblicke in ihr Projekt Wi4impact zur Wirkung und Verbreitung von Wissenschaftspodcasts. Sie erklären, welche Verbreitungsstrategien den Erfolg beeinflussen – von Social Media bis zu ausführlichen Shownotes und der aktiven Einbindung der Hör-Community. Im Gespräch mit Host Dr. Matthias Begenat geht es außerdem darum, wie sich Wissenschaftspodcasts im Laufe der Zeit verändert haben und welche Rolle KI-Tools zukünftig spielen.
February 17, 2025
Die Bundestagswahl 2025 steht kurz bevor, und die Parteien befinden sich im Endspurt des Wahlkampfs. Doch diese Wahl ist eine besondere: Durch den Bruch der Ampel-Koalition und die Vertrauensfrage wurde sie vorgezogen und findet deutlich früher statt als ursprünglich geplant. In dieser Folge der CAISzeit werfen wir einen Blick hinter die Kulissen der Wahlorganisation: Wie wird die Wahl organisiert und wer ist eigentlich im Hintergrund am Prozess beteiligt? Welche Herausforderungen haben Kommunen bei der Bereitstellung von Wahllokalen, Wahlhelfer:innen und Briefwahlunterlagen? Wie beeinflussen enge Fristen und fehlende Statistiken zur Briefwahl das Vertrauen in die Wahl? Welche Rolle spielen digitale Innovationen bisher im Wahlprozess, und welche Chancen sowie Risiken bringen sie mit sich? Zu Gast sind die Politikwissenschaftler:innen Anne Goldmann und Aryan Shooshtari, die bei uns am CAIS im Forschungsprogramm Digitale Demokratische Innovationen forschen. Gemeinsam mit ihnen diskutiert Host Matthias Begenat die Herausforderungen dieser besonderen Wahl.
August 27, 2024
Algorithmen bestimmen unser Leben: Von den Inhalten, die wir in sozialen Medien sehen, bis hin zu den Krediten, die uns gewährt werden. Aber inwieweit sind Algorithmen fair und transparent? Und welche Folgen kann es haben, wenn sie es nicht sind? Ist Gerechtigkeit programmierbar? Diese Fragen und mehr besprechen wir in dieser CAISzeit mit Miriam Fahimi. Miriam ist von April bis September 2024 als Fellow am CAIS und promoviert derzeit in den Science and Technology Studies am Digital Age Research Center (D!ARC) der Universität Klagenfurt. Sie erforscht die „Fairness in Algorithmen“ und hat über eineinhalb Jahre in einem Kreditunternehmen beobachtet, wie dort über transparente und faire Algorithmen diskutiert wird. Empfehlungen zum Thema Forschung: · Digital Age Research Center (D!ARC), Universität Klagenfurt. https://www.aau.at/digital-age-research-center/ · Meisner, C., Duffy, B. E., & Ziewitz, M. (2022). The labor of search engine evaluation: Making algorithms more human or humans more algorithmic? New Media & Society. https://doi.org/10.1177/14614448211063860 · Poechhacker, N., Burkhardt, M., & Passoth, J.-H. (2024). 10. Recommender Systems beyond the Filter Bubble: Algorithmic Media and the Fabrication of Publics. In J. Jarke, B. Prietl, S. Egbert, Y. Boeva, H. Heuer, & M. Arnold (Hrsg.), Algorithmic Regimes (S. 207–228). Amsterdam University Press. https://doi.org/10.1515/9789048556908-010 Populärwissenschaftliche Literatur: · Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. · Webseite von Kate Crawford. https://katecrawford.net Dokumentarfilm: · Coded Bias (dt. Vorprogrammierte Diskriminierung; abrufbar auf Netflix): In dieser Dokumentation werden die Vorurteile in Algorithmen untersucht, die die Forscherin am MIT Media Lab Joy Buolamwini in Systemen zur Gesichtserkennung offenlegte. https://www.netflix.com/de/title/81328723 Newsletter: · AI Snake Oil von Arvind Narayanan & Sayash Kapoor. https://www.aisnakeoil.com Ticker vom D64 –Zentrum für Digitalen Fortschritt: https://kontakt.d-64.org/ticker/
Pod Engine is not affiliated with, endorsed by, or officially connected with any of the podcasts displayed on this platform. We operate independently as a podcast discovery and analytics service.
All podcast artwork, thumbnails, and content displayed on this page are the property of their respective owners and are protected by applicable copyright laws. This includes, but is not limited to, podcast cover art, episode artwork, show descriptions, episode titles, transcripts, audio snippets, and any other content originating from the podcast creators or their licensors.
We display this content under fair use principles and/or implied license for the purpose of podcast discovery, information, and commentary. We make no claim of ownership over any podcast content, artwork, or related materials shown on this platform. All trademarks, service marks, and trade names are the property of their respective owners.
While we strive to ensure all content usage is properly authorized, if you are a rights holder and believe your content is being used inappropriately or without proper authorization, please contact us immediately at [email protected] for prompt review and appropriate action, which may include content removal or proper attribution.
By accessing and using this platform, you acknowledge and agree to respect all applicable copyright laws and intellectual property rights of content owners. Any unauthorized reproduction, distribution, or commercial use of the content displayed on this platform is strictly prohibited.