Problems logging in

Gesellschaft für Informatik (GI)

Die Gesellschaft für Informatik e.V. (GI) ist die größte Vereinigung von Informatikerinnen und Informatikern im deutschsprachigen Raum.

René Kiem Digitalisierung, digitale Produktion, digitale Transformation, digitale Fertigung – alles im digitalen Lack?
Es scheint, als befinden wir uns an einer neuen Schwelle der Produktion. Alles, was früher einmal galt, ist nichts mehr wert, denn die digitale Revolution steht vor der Tür bzw. hat längst mehr als einen Fuß darin.
Aber, halt, stopp! An dieser Stelle machen wir einen neuen Anlauf und beginnen unsere Beschreibung so, dass sie ihren völlig unnötigen Schrecken verliert.
Die Digitalisierung ist keineswegs neu! Vergessen Sie diese irrige Vorstellung einfach einmal für einen Moment, und vielleicht sogar für länger. Denn über die digitale Produktion, Transformation, die digitale Fertigung wird vieles verbreitet, was in höchstem Maße falsch ist und Ängste schafft, die sich über die Chancen legen.
Wenn Sie etwas produzieren, sind Sie auf digitale Prozesse angewiesen. Aber Sie verfügen auch längst über viele Mittel, um das erfolgreich zu gestalten. Sie müssen also nicht befürchten, dass Sie „Ihren Laden erst mal dicht machen“ müssen, um sich digital neu aufzustellen und dabei Unsummen an Geld in die Hand nehmen müssen.
Vielmehr geht es darum, eine Analyse des Ist-Zustandes zu machen und mittels einer detaillierten Auswertung die Stellschrauben zu finden, an denen gedreht werden muss, um Sie noch besser aufzustellen. Dies geschieht, indem Ihr bestehendes System an die Anforderungen angepasst wird, die bisher noch nicht in Angriff genommen wurden.
Wenn es Sie interessiert, wie genau das geschehen kann, dann setzen Sie sich am besten mit uns in Verbindung. Wenn Sie aber noch mehr über die Digitalisierung auf dem Gebiet der Produktion erfahren wollen, dann lesen Sie einfach hier weiter.
Die Erfindung des Computers oder: wie die Digitalisierung begann
Als es in der industriellen Phase eigentlich nicht mehr viel zu verbessern gab, gewann ein Begriff neue Bedeutung, der zuvor in völlig anderen Zusammenhängen benutzt wurde: Information.
Man kann sich darüber streiten, wann genau Computer damit begannen, die Welt komplett zu verändern und gewissermaßen neu aufzustellen. Die einen sagen, das sei in den 1950er Jahren der Fall gewesen, als erste Serien-Computer gebaut wurden. Die anderen tendieren eher zu den 1960er Jahren, als die ersten Mini- und Tisch-Computer auf den Markt kamen. Aber darauf kommt es eigentlich gar nicht an, denn was wir sagen wollen, ist, dass mit der Erfindung des Computers auch die Digitalisierung eingeleitet wurde. Oder, um es noch ein wenig plakativer zu formulieren: Wie kann etwas, das seinen Weg schon in den 1950er Jahren begann, heute als neu und gefährlich bezeichnet werden?
Überhaupt nicht!
Kommen wir auf die Information zurück. Sie gewann mit der Einführung des Computers eine völlig neue Bedeutung. Denn durch die neue, computerlesbare Form von Informationen konnten diese nicht nur einfacher be- und verarbeitet werden, sondern auch in Mengen, die bis dahin undenkbar waren. Es kam also von Beginn an zu einer Transformation der Information, die nach und nach in das Leben und Unternehmen einzog. Was sich nicht verändert hat, ist das Prinzip, auf dem die Produktion beruht, und das sieht so aus:
Produzent – Produkt – Kunde
Vermittler
Das war vor 50 Jahren so, und das ist auch heute noch so. Verändert haben sich die Prozesse, die Geschwindigkeit der Produktion, die technischen Möglichkeiten und Hilfsmittel. Die Art und Weise, wie heute mit Hilfe der Digitalisierung produziert wird, ist in der Tat mit früheren Zeiten nicht vergleichbar. Aber es geht nach wie vor darum, dass ein Produzent etwas herstellt, das dann – meist über einen Vermittler, das kann inzwischen auch das Internet sein – zum Kunden gelangt.
Das wissen Sie, das kennen Sie, es ist Ihr tägliches Geschäft. Und da Sie sicher auch das Internet nutzen, um Ihren Erfolg zu steigern und auf Computerprogramme zurückgreifen, um Ihre Prozesse zu optimieren, sind Sie mittendrin in der Digitalisierung.
Digitale Veränderungen als Chance
Veränderungen laufen in aller Regel nicht ohne Zwischenfälle, Komplikationen und Rückfälle ab. Die Produktion am Fließband wurde auch nicht über Nacht geschaffen und am Mittag des darauffolgenden Tages perfektioniert, sodass nichts mehr zu verbessern war. Stattdessen sprechen wir von einem Prozess, der lange Zeit benötigte, bis er zu einer gewissen Reife gekommen war, die sich auch unterm Strich rechnete. Mit der Digitalisierung in der Fertigung bzw. Produktion ist das auch nicht anders. Nur, dass Sie eben schon längst in die digitale Arbeit eingestiegen sind.
Der Vergleich mit der Einführung der Fließbandarbeit bietet sich übrigens auch an, um deutlich zu machen, dass nur die schrittweise Einführung neuer Methoden und Technologien sinnvoll ist. Letztlich geht es darum, ein bestehendes System nach und nach an die neuen Rahmenbedingungen anzupassen und so die Herausforderungen zu meistern. Heute sind diese Herausforderungen internationale Märkte, immer schneller werdende Arbeits- und Produktionszyklen und die Bestrafung von Fehlern quasi in Echtzeit. Denn wer zuerst kommt, mahlt zuerst, und wer mit der Geschwindigkeit moderner Produktionsmethoden nicht mithalten kann, zieht den Kürzeren. Schon deshalb kommt niemand um die Digitalisierung herum, und das ist eine gute Nachricht, denn es war vielleicht nie leichter, mit neuen Instrumenten alte Methoden abzulösen, zu ergänzen oder zu optimieren.
Digitalisierung: da ist Musik drin!
Ein Blick auf die Musikbranche zeigt, was Digitalisierung bewirkt. Der Weg von der Schellackplatte über die Schallplatte und die CD bis hin zum MP3-Format und dem Abspielen von Musik ausschließlich über Computer oder Handys war ein langer, aber auch einer, der nicht veränderbar war. Die Branche musste sich regelmäßig technischen Neuerungen stellen und darauf reagieren. Dieses Prinzip lässt sich auf jede andere Branche übertragen, denn mit jedem technologischen Sprung, den wir erleben, gehen Veränderungen einher, auf die wir reagieren müssen. Mal ist die eine Branche stärker betroffen, mal die andere. Aber das jemand ausgelassen wird, ist ein Wunsch, den man gar nicht erst denken sollte. Insbesondere deshalb nicht, weil in jeder Veränderung eine unglaublich große Chance steckt.
Schulungen, Webinare und Termine für 2018 zu den Themen Qualitätsmanagement, Führungskräfteentwicklung, IT, Industrie 4.0 und MES finden Sie auf:
http://www.seminar-plenum.de
Kennen Sie schon unser Fachbuch zum Thema Qualität und Industrie 4.0?
Qualität 4.0 Autor René Kiem, Inhaber KONTOR GRUPPE by René Kiem.
Erhältlich beim Hanser Verlag:
http://www.hanser-fachbuch.de/buch/Qualitaet+40/9783446447363
Und natürlich gerne persönlich: r.kiem@kontor-gruppe.de
Herzlichen Gruß
René Kiem
René Kiem
Unternehmensberatung für Österreich an unseren Seminar-Orten: Innsbruck | Graz | Linz | Wien: Qualitätsmanagement nach ISO 9001 | LEAN Management | Automotive FMEA | FMEA Methodik | FMEA Handbuch (AIAG und VDA) | Risikoanalyse | Digitalisierung
Gi Gesellschaft für Informatik (GI) is organising the following event: CfP: Die Gesellschaft im Spiegellabyrinth sozialer Medien
Berlin, Germany, September 20-21, 2019
Bildeten noch vor wenigen Jahrzehnten die Massenmedien Fernsehen, Presse und Rund­funk den pri­mä­ren Zugang der Gesellschaft zu sich selbst und ihrer Umwelt, sind heutige ge­sell­schaftliche Debatten und das Phänomen der Öffentlichkeit in hohem Maße durch den Einfluss von Online-Kom­mu­ni­kation auf Plattformen der großen Social-Media-An­bieter geprägt – verbunden mit dem Versprechen eines niedrig­schwelligen Zugangs zum Diskurs und der Flexibilisierung der Kommu­ni­ka­tions­beziehungen. In­di­vi­duelle Beiträge treten so neben die Berichterstattung durch Massenmedien. Obwohl sie einen gänz­lich anderen Entstehungshintergrund aufweisen, können die individuellen Beiträge in den sozialen Medien eine ähnliche Funktion erfüllen wie die Be­richt­erstattung durch Massenmedien, indem sie die Welt, die Ge­sell­schaft oder auch die Berichterstattung der Massenmedien (reflexiv) beschreiben und so den öffentlichen Diskurs mitgestalten.
Solche digitalen Diskurse pro­du­zieren stets auch Daten respektive Metadaten, die abgefragt werden können und die (teilweise bereits auto­ma­ti­sierte) visuelle Darstellung individuellen Kommu­nikations­verhaltens oder ganzer De­bat­ten er­möglichen. Derart wird eine neue techni­sierte Beob­ach­tungsebene geschaffen, von der aus die Kom­­­­mu­ni­kation in den sozialen Medien auf Grund­lage ihrer tech­nischen Informationen und Struk­tu­ren re­­flek­tiert werden kann. Zugleich ist die Kommunikation in On­line­-Platt­formen wie YouTube, Twit­ter oder Face­­book aber auch durch algo­rith­mische Selektionen ge­formt, sie wird in hohem Maße per­so­­na­lisiert oder kann Beiträge automati­sierter Accounts ent­hal­ten. Dass solche Phänomene exis­tieren und die heu­tige Webkommunikation grundlegend von tra­di­tio­nellen massenmedialen Kom­mu­ni­ka­tions­­­for­men unter­scheiden, steht außer Frage, und dennoch stel­len bspw. die eindeutige Detektion von ›Bots‹ in sozialen Netzwerken, die Bewertung ihres Ein­flus­ses auf die dortigen Debatten oder des Aus­­maßes und der Einflussnahme algorith­mischer Per­so­na­li­sie­rung auf individuelles Verhalten die For­schung im­mer noch vor immense Schwierigkeiten.
Der Diskurs in den sozialen Medien ist für die Gesellschaft aber auch deshalb hoch brisant, weil durch ihn ihre Form selbst verhandelt wird: Ist die Gesellschaft konservativ und will bleiben, was sie ist, oder ist sie progressiv und will sich verändern? Und wie konstruiert sich diese ›Gesell­schaft‹ im Diskurs? Par­teien, NGOs oder Protestgruppen nutzen teilweise gekonnt die neuen Mecha­nismen der Online­Me­dien, um den gesell­schaftlichen Diskurs in einer Weise zu prägen, wie es noch vor wenigen Jahren un­vor­­stell­bar erschien. In den sozialen Netzwerken existieren Formen des Protests wie (Live-)Videos (in Vlogs oder von Demonstrationen), Memes oder sogenannte Hashtag-Kampagnen. Ebenso eröffnen sich dem Protest durch Hacking oder durch den Zugriff auf Datenmaterial gänzlich neue, digitale Me­tho­­den. Auf der anderen Seite ist in jüngster Zeit etwa die Über­nahme von Protestformaten mit Ent­stehungs­hintergrund in der gesellschaftlichen ‚Linken‘ wie die Besetzung oder Intervention im öf­fent­lichen Raum durch rechts­extreme Grup­pen und Initiativen wie die ›Identitäre Bewegung‹ zu beobach­ten. Mit ihren Aktionen und der da­mit verbundenen Medienstrategie sollen nicht nur ihre extremis­tisch­en Positionen Eingang in den öf­fentli­chen Diskurs finden, sondern diese Protest­formate gezielt zugunsten eines ›völkischen‹ und isla­mo­phoben Protests vereinnahmt werden, wodurch sukzessive auch die Grenze zwischen ›linkem‹ und ›rechtem‹ Protest unkenntlich gemacht wird.
Die geplante Konferenz adressiert Fragen der Medien-, Sozial- und Kommu­ni­ka­tions­wissenschaften eben­so wie der Informatik. Das thematische Kon­zept vereint dabei erstens die Transfor­mation öf­fentli­cher Meinung und gesellschaftlicher Kommunika­tion unter den Bedingungen der Online-Kom­mu­ni­ka­tion (vornehmlich vermittelt durch Social-Media-Plattformen als neue Spielfelder des gesell­schaft­lichen Diskurses) mit zweitens der neuen Rolle und den neuen digitalen Methoden von Protest­grup­pen in diesem gesell­schaft­lichen Diskurs sowie drittens Fragen nach den informationstechnischen Dis­po­si­tio­nen dieser algorith­misch vermittelten Diskurse. Beiträge aus der Informatik und den Inge­nieurs­wis­sen­­schaften sind der interdisziplinären Ausrich­tung der Kon­ferenz wegen ausdrücklich er­wünscht und sol­len die geistes- und sozialwissenschaftlichen Perspektiven jeweils um eine Be­schrei­bung der tech­ni­schen Grundlagen ihrer Unter­such­ungs­gegenstände wesentlich ergänzen.
Den vollständigen Call for Paper finden Sie auf https://easychair.org/cfp/GSM2019
Kontakt:
Samuel Schilling <s.schilling@zem-brandenburg.de>
Anne Kathrin Nölling Future Computing
Hightech vor historischer Kulisse: Das Schloss Birlinghoven in Sankt Augustin war am 13. Februar 2019 der Ort für eine Konferenz wie aus der Zukunft: Rund 30 Forscher und Experten waren der Einladung der eco Akademie gefolgt und diskutierten im Fraunhofer-Institut für Angewandte Informationstechnik FIT in Sankt Augustin über „Future Computing“.
10 Milliarden Transistoren beherbergt ein moderner Mikrochip heute – auf jedem Quadratzentimenter. Das Moore’sche Gesetz stellte bereits in den 1960er Jahren die Behauptung auf, dass sich die Komplexität von Prozessoren regelmäßig verdoppelt. Doch wo liegen die Grenzen dieses Wachstums und welche technischen und ethischen Herausforderungen bringen neuronale Netze und Quantencomputer mit sich?
„Die Rechenkapazität wächst schneller als die Bandbreiten zur Datenübertragung im Internet“, sagte Institutsleiter Stefan Decker in seiner Einführung zum Thema. Er gab Denkanstöße, wie sich das menschliche Gehirn als Abstraktion neuronaler Netze begreifen lässt. Was das konkret bedeutet, zeigten die Redner im Anschluss: In der ersten Hälfte des Veranstaltungstages stellten Experten ausgewählte Basis-Technologien vor.
Von der Nano- zur Partikel-Technologie
Holger Vogt vom Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme IMS in Duisburg beschrieb den aktuellen Stand der Technik in der Halbleiter-Industrie. „Der Smartphone-Markt sorgt für eine anhaltende Nachfrage nach Micro-Chips“, sagt Vogt und stellt Überlegungen an, wie weit Nano-Strukturen noch schrumpfen könnten. „Wir denken inzwischen in Partikeln“, gibt er zu bedenken.
Doch was folgt, wenn die gegenwärtige auf Transistoren und Silizium basierende Technologie an ihre Entwicklungsgrenzen stößt? Dann beginnt das Zeitalter der Quantencomputer, sagt Walter Riess von IBM Research in Zürich. Diese Technologie basiert auf Prinzipien der Quantenphysik. Quantum Bits, kurz Qubits, sollen parallele Rechenoperationen ermöglichen und bald in vielen Fällen der heutigen Mikroelektronik überlegen sein.
Ein weiterer Ansatz für zukünftige Computer befindet sich in einem noch früheren Forschungsstadium: Biocomputer basieren auf Protein-Netzwerken, durch die biologische Agenten anhand von programmierbaren Kreuzungen gelenkt werden, erläutert Danny Reuter vom Fraunhofer-Institut für Elektronische Nanosysteme ENAS in Chemnitz.
Ist künstliche Intelligenz unberechenbar?
Über mögliche Anwendungen der Zukunftstechnologien sprachen die Teilnehmer nach einer Pause, die Zeit fürs Netzwerken und für Fachgespräche ließ. Cyrille Waguet von der incontext technology GmbH erläuterte künstliche neuronale Netze. Die können heute auf der Basis heutiger Technologie bereits Muster erkennen und Schlussfolgerungen ziehen. Immer stärker werden künstliche neuronale Netze auch Entscheidungen für Menschen treffen. „Das Verhalten solcher Netze ist nicht vorhersehbar“, gibt er zu bedenken.
Wie es möglich werden könnte, einige Wunder des menschlichen Gehirns zukünftig zu entschlüsseln, darüber sprach anschließend Simon Eickhoff vom Forschungszentrum Jülich. „Erkrankungen wie Depressionen, Alkoholismus und Demenz sind extrem komplex. Gewisse Veränderungen im Gehirn, die beispielsweise auf Demenz hindeuten können, lassen sich bereits per Hirnscan diagnostizieren“, sagt er und stellte das Human Brain Project vor. Dies habe das Ziel, mit neuen Technologien immer stärker Präzisionsmedizin für Gehirnerkrankungen zu entwickeln.
Welches Internet haben wir in 15 Jahren?
Mit immer komplexeren Technologien wächst auch die Bedeutung einer ethischen Betrachtung, gab anschließend Nicolai Andersen von der Deloitte Consulting GmbH zu bedenken. Die Welt sei nicht schwarz/weiß, klare Entscheidungen werden schwieriger. Wie das Internet wohl in 15 Jahren aussieht, darüber sprach anschließend Christoph Dietzel von der DE-CIX Management GmbH. Immer mehr Videodaten, Edge-Computing und Fog-Computing sowie der 5G Ausbau machen es nötig, die aktuellen Infrastrukturen ständig weiter zu entwickeln. Mit der Blockchain stellte zum Abschluss der Veranstaltung Wolfgang Prinz eine weitere neue Technologie vor, die die Internet-Infrastruktur zukünftig weiter prägen könnte.
Weitere hochrangige Veranstaltungen finden Sie hier: https://www.medienakademie-koeln.de/
Gi Gesellschaft für Informatik (GI) Neuer Beitrag im Themenblog: Urheberrechtsnovelle der EU
Im EU-Parlament werden zurzeit die Urheberrechtsgesetze unter dem Arbeitstitel „Urheberrecht im digitalen Binnenmarkt“ bearbeitet. Diese Gesetze beziehen sich auf die Urheberrechte in der digitalen Welt. Intensiv diskutiert werden vor allem die Artikel 11 (Schutz von Presseveröffentlichungen im Hinblick auf digitale Nutzungen) und 13 (Nutzung geschützter Inhalte durch Diensteanbieter der Informationsgesellschaft, die große Mengen der von ihren Nutzern hochgeladenen Werke und sonstigen Schutzgegenstände speichern oder zugänglich machen). In der geplanten Fassung könnten diese Artikel das heutige Internet stark verändern.
Den Anstoß für die Urheberrechtsnovelle gab Günther Oettinger im Jahr 2016. In seinem Gesetzesvorschlag ging es darum, die Urheberrechtsgesetze der EU zu reformieren. Unter anderem stellte er sich darunter eine „wirksame Inhaltserkennungstechnik“ und eine 20-jährige Frist für ein sog. Leistungsschutzrecht vor.
Aufmerksamkeit bekamen die Pläne erst Anfang des Jahres 2018. Zwischen Februar und Mai wurden zwischen dem EU-Parlament und dem Rat der Europäischen Union mehrere Kompromisspapiere ausgetauscht. Nach der Annahme des Kompromissantrags (Europäisches Parlament) am 12. September durch Axel Voss sprach sich das Europäische Parlament für die Aufnahme von Trilog-Verhandlungen mit Rat und Kommission aus. Wesentliche Unterschiede zu früheren Iterationen der Reform betrafen die Dauer des Leistungsrechts (5 statt 20 Jahre), den Verzicht auf rückwirkende Geltung des Leistungsrechts und die Änderung verschiedener Formulierungen in Artikel 13. Insbesondere wurde der Begriff der „wirksamen Inhaltserkennungstechnik“ aufgegeben, um sich von der Idee der „Upload-Filter“ zu distanzieren, die von Netzpolitikern zuvor kritisiert worden war.
Der Grundgedanke der Reform ist nachvollziehbar und es ist zu begrüßen, dass sich die Politik aktiv mit Fragen des Urheberrechts in den Zeiten digitalen Wandels beschäftigt. Rechteinhaber müssen für ihre Inhalte entlohnt werden und es muss sichergestellt werden, dass geltende Rechte auch im Netz wirksam umgesetzt werden.
Auch ist positiv anzuerkennen, dass mittlerweile Änderungen hinzugefügt worden sind, die vorsehen, dass unter anderem kleinere Unternehmen, sowie Bildungseinrichtungen von den Auflagen nicht betroffen werden sollen. Aus sozioinformatischer Sicht ist die aktuelle Fassung allerdings immer noch kritisch zu sehen, da etliche Fragen zur praktischen Umsetzung weiterhin ungeklärt sind.
Je nach Ausgestaltung kann die Novelle verheerende Folgen haben. Artikel 11 sieht vor, dass Plattformen, wie etwa Google News, welche Nachrichten von verschiedenen Quellen zusammentragen und weiterverwenden, künftig die Urheber (i.d.R. Verlage) bezahlen müssen. Dies soll im Rahmen von Lizenzvereinbarungen gelöst werden. Fraglich ist jedoch, inwieweit dieses Ziel überhaupt umsetzbar ist. In Spanien führte ein ähnliches Vorhaben dazu, dass Google News seinen Dienst dort eingestellt hat, was die Verlage eine Vielzahl an Nutzern gekostet hat, die in erster Linie über den Dienst von Google auf ihre Plattform weitergeleitet worden waren (heise). Auch in Deutschland ist bereits ein Leistungsschutzrecht in Kraft. Dieses Gesetz ist ebenso umstritten und hat in der Praxis bislang nicht die gewünschte Wirkung erzielt (Netzpolitik). Das Leistungsschutzrecht in seiner jetzigen Form schützt künstlich und verhindert somit Innovationen in einem Presse- und Verlagssystem, das dringend auf zukunftsorientiere Geschäftsmodelle angewiesen ist, um langfristig Bestand zu haben.
Auch bei der Umsetzung der jetzigen Verfassung des Artikel 13 gibt es noch einige Punkte, die bei genauerer Betrachtung Fragen aufwerfen. Obwohl der aktuelle Vorschlag „Upload-Filter“ nicht mehr explizit erwähnt, ist davon auszugehen, dass Dienstanbieter solche Techniken einsetzen werden. Schließlich sollen „Online-Inhaltsweitergabedienste“ durch die Novelle dazu verpflichtet werden, nutzergenerierte Inhalte bereits vor der Veröffentlichung auf Urheberrechtsverletzungen zu prüfen. Ohne automatischen Filter ist bei der Menge der täglich hochgeladenen Inhalte eine solche Überprüfung kaum möglich. Nach dem Hochladen muss jeder Inhalt zunächst abgeglichen werden, was zu Verzögerungen bei der Veröffentlichung führen kann.
YouTube verwendet bereits seit einiger Zeit einen eigens entwickelten Upload-Filter namens Content-ID. Trotz millionenschwerer Investitionen gelingt es dem Algorithmus nicht, fehlerfrei zu funktionieren. Legitime Videos werden vom Filter fälschlicherweise gesperrt („False Positives“). Diese Problematik würde sich (Stand heute) auch bei jedem anderen Upload-Filter ergeben. Selbst bei hohen Genauigkeitswerten von 99% und mehr würden zahlreiche Uploads zu Unrecht herausgefiltert. Hiervon betroffen sind vor allem Satire, Parodien und „Memes“, d.h. die Meinungsfreiheit wird beeinträchtigt. Der Artikel sieht zwar vor, dass es die Möglichkeit gibt, Beschwerde bei unrechtmäßigem Löschen des Inhalts einzureichen; auch fordert er eine manuelle Überprüfung von Seiten der Betreiber – unklar ist jedoch, wie solche Mechanismen von den Anbietern mit vertretbarem Aufwand umgesetzt werden sollen. Die Umsetzung von Artikel 13 könnte somit zu erheblichen Veränderungen führen, nicht nur in Sozialen Netzen, sondern bei allen Diensten, in denen Nutzer Inhalte bereitstellen können.
Dieser Überblick wurde verfasst von Elrike van den Heuvel, Shun jie Yan und Johannes Korz aus der neu gegründeten „Redaktion Sozioinformatik“. Sie erreichen die Autoren unter redaktion.sozioinformatik(at)cs.uni-kl.de.
Johannes Korz ist 24 Jahre alt, geboren in Kaiserslautern und Student der Sozioinformatik an der Technischen Universität Kaiserslautern. Neben seinem Studium gründete er erfolgreich die Hochschulgruppe eSports TUK und engagiert sich als Redaktionsleiter der sozioinformatischen Abteilung des GI-Radar. Er befasst sich am liebsten mit der Digitalisierung in der Bildung und der Entwicklung des eSports in Deutschland.
Shun-Jie Yan
Shun-Jie Yan ist 20 Jahre alt, geboren in Aschaffenburg und Studentin der Sozioinformatik an der Technischen Universität Kaiserslautern. In Ihrer Freizeit engagiert sie sich in der internationalen Studentenorganisation AIESEC. Sie befasst sich am liebsten mit der Entwicklung von Wearables.
Elrike van den Heuve ist l23 Jahre alt, geboren in Ettelbrück (Luxemburg) und Studentin der Sozioinformatik an der Technischen Universität Kaiserslautern. Neben ihrem Studium engagiert sie sich aktiv im Rettungsdienst. Sie befasst sich am liebsten mit aktuellen Themen der Netzpolitik.