14. Juli 2023 Letzter Strike: Abschiedsfeier am Wochenende im Elite Bowling Center! Erleben Sie ein einzigartiges Wochenende voller Aktionen, während wir uns von unseren altgedienten Bowling Maschinen verabschieden.
8. November 2023 Bielefeld-App Partner: ZEITFORM Ihr Partner für Uhren - Schmuck - Trauringe in Bielefeld
26. März 2020 Aktuelle Entwicklung in Bielefeld Wertstoffhöfe weiterhin geschlossen / Rettungsdienst mit Maske und Schutzbrille im Einsatz
23. März 2020 Informationen zum Coronavirus Aktuelle Entwicklung in Bielefeld / OB Pit Clausen zur aktuellen Corona-Lage
21. März 2020 Aktuelle Entwicklung in Bielefeld Merkblatt Coronavirus-Infektion und häusliche Quarantäne des Robert Koch Institut!
18. August 2022 POL-BI: Einbruchsradar - Karte zur Wohnungseinbruchskriminalität 32 KW 2022 Präsentiert vom Team der Schewe Sicherheitstechnik
8. Dezember 2023 Heimspiel: TSG A-H Bielefeld - Sportfreunde Söhre von 1947 Das letzte Heimspiel des Jahres!
28. November 2023 Wichtiger Sieg vor heimischer Kulisse! Die TSG A-H Bielefeld kann sich in einem furiosen Spiel, trotz Fehlstart in die Partie zurückkämpfen!
23. November 2023 Knappe Auswärtsniederlage im OWL-Derby! Spielbericht: LIT 1912 II - TSG A-H Bielefeld
19. September 2020 Gesichter aus Bielefeld schwarz-weiß - mal unbekannt, mal bekannt und mal fast prominent. Tobias Nehls
25. November 2018 TSG AH Bielefeld-TuS 09 Möllbergen am 7.12. / 20 Uhr Bielefeld App verlost 5 x 2 Tickets für Euch!
13. November 2018 TSG A-H Bielefeld gg. LIT Tribe Germania am 18.11. Bielefeld App verlost 5 x 2 Tickets für Euch
29. Januar 2018 SKY Game Day VFL Bochum - DSC Arminia Bielefeld am 29.01. um 20:30 Uhr mit Bielefeld App Partnern Partner NEWS
Wissenschaftler*innen der Universitäten Paderborn und Bielefeld erforschen neue Form der Mensch-Maschine-Interaktion Bewerbungen aussortieren, Röntgenbilder begutachten, eine neue Songliste vorschlagen – die Mensch-Maschine-Interaktion ist inzwischen fester Bestandteil des modernen Lebens. Grundlage für solche Prozesse künstlicher Intelligenz (KI) sind algorithmische Entscheidungsfindungen. Da diese in der Regel aber schwer nachzuvollziehen sind, bringen sie häufig nicht den erhofften Nutzen mit sich. Um das zu ändern, diskutieren Wissenschaftler*innen der Universitäten Paderborn und Bielefeld, wie die Erklärbarkeit künstlicher Intelligenz verbessert und an die Bedürfnisse der Menschen angepasst werden kann. Der Ansatz wurde jetzt in dem renommierten Journal „IEEE Transactions on Cognitive and Developmental Systems“ veröffentlicht. Die Forscher*innen stellen Erklären dabei als eine soziale Praktik vor, bei der beide Seiten den Prozess des Verstehens gemeinsam konstruieren. Erklärbarkeitsforschung„Künstliche Systeme sind komplex geworden. Das ist ein ernsthaftes Problem – insbesondere dann, wenn Menschen für computerbasierte Entscheidungen verantwortlich gemacht werden", betont Professor Dr. Philipp Cimiano, Informatiker der Universität Bielefeld. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ansätze, die eine Erklärbarkeit entsprechender Systeme zum Gegenstand hätten, ausreichend sei das aber noch lange nicht. Auch Professorin Dr. Katharina Rohlfing von der Universität Paderborn bestätigt den dringenden Handlungsbedarf: „Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Anliegen ist nicht ohne Grund Gegenstand der General Data Protection-Verordnung der Europäischen Union.“ Das Ziel, Algorithmen zugänglich zu machen, ist Kern der sogenannten „eXplainable Artificial Intelligence (XAI)“: „Bei der Erklärbarkeitsforschung stehen Transparenz und Interpretierbarkeit aktuell als gewünschte Ergebnisse im Mittelpunkt“, so Rohlfing über den Stand der Forschung. Entscheidungsfindung nachvollziehenDie an der Veröffentlichung beteiligten Wissenschaftler*innen gehen einen Schritt weiter und untersuchen computerbasierte Erklärungen aus unterschiedlichen Blickwinkeln. Dabei sehen sie es als gesetzt an, dass Erklärungen nur dann für die Anwender*innen nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen: „Wir wissen aus vielen Alltagssituationen, dass eine gute Erklärung für sich nichts bringt, wenn die Erfahrungen der anderen Seite unberücksichtigt bleiben. Wer sich wundert, warum seine Bewerbung durch den Algorithmus aussortiert wurde, möchte normalerweise nichts über die Technologie des maschinellen Lernens erfahren, sondern fragt nach der Datenverarbeitung in Bezug auf die eigenen Qualifikationen“, erklärt Rohlfing. „Wenn Menschen miteinander interagieren, sorgt der Austausch zwischen den Beteiligten dafür, dass eine Erklärung an das Verständnis des Gegenübers angepasst wird. Der Gesprächspartner stellt vertiefende Fragen oder kann Unverständnis äußern, das anschließend aufgelöst wird. Im Fall von künstlicher Intelligenz ist das aufgrund mangelnder Interaktionsfähigkeit mit Einschränkungen verbunden“, so Rohlfing weiter. Um das zu ändern, arbeiten Linguist*innen, Psycholog*innen, Medienforscher*innen, Soziolog*innen, Ökonom*innen und Informatiker*innen in einem interdisziplinären Team eng zusammen. Die Expert*innen untersuchen Computermodelle und komplexe KI-Systeme sowie Rollen des kommunikativen Handelns. Erklären als soziale PraktikDie Paderborner und Bielefelder Wissenschaftler*innen haben einen konzeptionellen Rahmen für das Design von erklärbaren KI-Systemen entwickelt. Rohlfing: „Mit unserem Ansatz können KI-Systeme ausgewählte Fragen so beantworten, dass der Prozess interaktiv gestaltet werden kann. Auf diese Weise wird eine Erklärung auf den Gesprächspartner zugeschnitten und soziale Aspekte in die Entscheidungsfindung miteinbezogen.“ Das Forscher*innenteam versteht Erklärungen dabei als Abfolge von Handlungen, die von den Parteien im Sinne einer sozialen Praktik zusammengebracht werden. Konkret soll das durch das sogenannte Scaffolding und Monitoring gesteuert werden. Die Konzepte stammen aus dem Bereich der Entwicklungsforschung: „Vereinfacht ausgedrückt beschreibt Scaffolding – aus dem Englischen für ‚Gerüst‘ – eine Methode, bei der Lernprozesse durch Denkanstöße und Hilfestellungen unterstützt und in Teilschritte zerlegt werden. Beim Monitoring geht es um das Beobachten und Einschätzen der Reaktionen des Gegenübers“, so Rohlfing. Ziel der Wissenschaftler*innen ist es, diese Prinzipien auf KI-Systeme anzuwenden. Neue AssistenzformenDer Ansatz soll die aktuelle Forschung erweitern und neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz geben. Die zugrundeliegende Annahme ist, dass es nur dann gelingen kann, aus einer Erklärung Wissen und weiteres Handeln abzuleiten, wenn der Gesprächspartner in den Erklärprozess miteinbezogen wird. Im Kern geht es dabei um die Teilnahme der Menschen an soziotechnischen Systemen. „Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erklärbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu ermöglichen“, fasst Rohlfing zusammen. Originalveröffentlichung:Katharina J. Rohlfing; Philipp Cimiano; Ingrid Scharlau; Tobias Matzner; Heike M. Buhl; Hendrik Buschmeier; Elena Esposito und weitere Autor*innen: Explanation as a social practice: Toward a conceptual framework for the social design of AI systems. IEEE Journals & Magazine, https://www.doi.org/10.1109/TCDS.2020.3044366, veröffentlicht am 14. Dezember 2020.