• 6 Minuten Lesezeit
  • Noch keine Reaktionen

Seit einigen Jahren liest man in der Fachpresse regelmäßig über den steigenden Bedarf an UX-Designern. UX? Oder doch UI? Fest steht: Der moderne Konsument möchte in seiner digitalen Erfahrung von Marken abgeholt und verstanden werden. Das vielleicht populärste Beispiel ist wohl Der 300-Millionen-Dollar-Button von 2009. War das UX oder UI?  Und ist diese gefühlte Trennschärfe überhaupt noch relevant? Heute, 8 Jahre später, geht es um mehr als einen funktionierenden Checkout. Der Gesamteindruck, das Feeling muss stimmen. Klingt postfaktisch? Mitnichten. Unsere Psyche vertraut durchdachtem Design.

Mehr noch: Studien schätzen, dass die User Experience einer Marke schon 2020 wichtiger sein wird als das Produkt oder der Preis. Siehe Starbucks. Siehe Apple. Siehe Snapchat. Dazu braucht es natürlich qualifiziertes Personal. Personal, das nicht nur schön, sondern auch schlau designt. Trotzdem scheinen die Definitionen der Titel so vielfältig und schwammig wie die Anforderungen. Das wirft einige Fragen auf: Woher kommt UX- und UI-Design? Was bedeutet es genau? Und wohin geht die Reise?

1852-1966: Ursprung und Pioniere

„form

follows

function“– Horatio Greenough

“form follows function” ist ein Satz, den jeder designaffine Mensch schon einmal gehört hat. Das Zitat, oft irrtümlich der Bauhaus-Schule zugerechnet, wurde erstmals 1852 von dem amerikanischen Bildhauer Horatio Greenough geprägt und knapp 40 Jahre später vom Architekten Louis Sullivan popularisiert. Seine These: Wie in der Natur soll sich die Form eines Objekts von seiner Funktion ableiten. Dabei kann, wie in der Natur auch, ansprechende Ästhetik oder Haptik ein Teil der Funktion sein.

Denn anders als später von Bauhaus-Jüngern als Minimalismus oder Brutalismus interpretiert, ging es ihm nicht nur um Reduktion oder nur um die Unterwerfung der Form zwecks Nutzen.

Sondern um Design, das aus Funktion eine natürliche Erfahrung macht.

Ein Büro hat große Fenster, damit es heller ist– und wir uns wohler fühlen. Wir sehen mehr, sind aber auch motivierter, darin zu arbeiten. Der Raum selbst tritt in den Hintergrund und wird zur passiven Bühne positiver Erfahrung. Mit anderen Worten:

Wir erleben eine angenehme User Experience.

Aber woher kommt der Begriff des UX-Designs eigentlich? Es gibt viele Versuche, den “ersten” UX-Designer zu greifen. Ein Name, der in diesem Zusammenhang oft fällt, ist Henry Dreyfuss. Der Industrial Designer veröffentlichte schon 1955 sein Standardwerk “Designing For People”. Wie der Titel vermuten lässt, stellt er den Menschen in den Mittelpunkt und beschreibt die Grundzüge dessen, was wir heute als Usability verstehen: Eine Gestaltung, die nicht nur schön und praktisch, sondern auch intuitiv verständlich sein will. Den idealen Schaffensprozess  dazu beschreibt er wie folgt: “We begin with men and women and we end with them.”. Nur so würde gutes (Produkt)design auch zum “silent salesman”– Erkenntnisse, die sich von 1955 bis zum aktuellen iPhone bewahrheiten.

Andere wähnen einen ganz anderen Visionär als Pionier– Walt Disney. Als einer der ersten Unternehmer setzte er beim Design seiner Parks auf Insights aus Big Data, Prototyping und stellte schon 1966 die User Journey über alles. Ferner handelte der Entertainment-Tycoon täglich nach zehn ehernen Grundsätzen, die auch heute in jedem Tech-Startup hängen könnten: Mickey’s 10 Commandments. Damals noch weit entfernt vom Informationszeitalter, ist trotzdem jeder davon auf heutiges Design übertragbar.

 

„I only hope that we never lose sight of one thing — that it was all started by a mouse.“– Walt Disney

1973-2000: Der Siegeszug der (G)UI

Ein gutes Jahrzehnt später schließlich der digitale Durchbruch: Das R&D Lab von Druckerhersteller Xerox, PARC, erfindet die GUI wie wir sie heute kennen– im ersten Personal Computer der Welt. Inklusive einer weiteren bahnbrechenden Entwicklung: Der Maus. Zum ersten Mal stellten sich Informatiker die Frage, wie eine Benutzeroberfläche aussieht, die jedermann versteht und bedienen kann. Denn 1973 gab es noch keine gelernten Gesten in der Bedienung digitaler Geräte.

Die Arbeit mit und an Computern war einer kleinen Schar von Wissenschaftlern und Spezialisten vorbehalten. Erkenntnisse aus kognitiver Psychologie, digitaler Technik und praktischer Ergonomie machten die Mannschaft um Internetpionier und Psychologe Robert W. Taylor zum ersten UX/UI-Design-Team der Neuzeit. Genial verkannt: Die Führung von Xerox sah kein großes Potential im PC. Ganz anders sahen das zwei prominente Besucher des PARC-Labs. Steve Jobs und Bill Gates ließen sich beide nachweislich vom Alto-Projekt inspirieren und bauten bald danach ihre eigenen Imperien auf Grundlage der PARC-Insights auf.

So fanden bald darauf die ersten Personal Computer ihren Weg auf den Markt. Mit massentauglichen Produkten wie dem Apple I, dem Commodore bis hin zu IBM-Rechnern wuchsen aber auch die Ansprüche der User an die GUI. Um auch nicht-IT-Professionals den Einstieg zu erleichtern, brauchte es eine ausgefeiltere Form des UI-Designs. Nicht umsonst warb Microsoft 1994 mit dem so passenden Satz “Making it easier.”

Nichtsdestoweniger sollte es noch bis 1995 dauern, bis diese Symbiose aus UI und UX User Experience getauft wurde. Don Norman, auch er Psychologe und Designer, schuf seinerzeit bei Apple den Jobtitel User Experience Architect. Kein Wunder: Dort konnte er die theoretischen Überlegungen aus seinen Werken “User Centered System Design: New Perspectives on Human Computer Intercation” (1986) undThe Design Of Everyday Things” (1988) zu handfesten Produkten vereinen.

Mit dem Begriff traf er den Nerv der Zeit: Mosaic, der erste weit verbreitete Webbrowser war seit kurzer Zeit auf dem Vormarsch und ein völlig neues Medium fand seinen Weg in den Massenmarkt: Das Internet. Plötzlich mussten digitale Produkte nicht nur für eine bestimmte Zielgruppe verständlich und individualisierbar sein, sondern im wahrsten Sinne des Wortes für jeden Menschen weltweit. Schon bald begann das Rennen um die beste Internet User Experience.

UX wie UI-Designer spielten dabei eine wesentliche Rolle: Browser und Websites, die zu kompliziert waren oder an den immer neuen technischen Möglichkeiten scheiterten, blieben auf der Strecke. Die rapide Entwicklung diktierte immer neue Herausforderungen an Design, Technik und Data Research. Allen voran die Suchmaschinen: Schon 2000 dominierte das erst 1996 gegründete Google mit einem Mix aus exzellenter Technik und intuitiver Usability das Netz.

 

2000-2016: UX und UI für die Massen

Digitales Design, wie wir es heute verstehen, entstand etwa Mitte der Nuller Jahre: Immer leistungsfähigere Endgeräte, darunter auch erste “Communicator”-Smartphones, drängten auf den Markt. Die sich überschlagenden Fortschritte in Soft- und Hardware machten anspruchsvollere, flüssigere und ansprechende digitale Produkte und Designs möglich.

Mit der Einführung des iPhones 2007 erreichte diese Entwicklung ihren ersten Peak. Das Gerät, im Grunde ein Meilenstein für ganzheitliches Design, machte die digitale Welt zu einem Teil unseres Lebens. Nicht nur Ultramobility und Responsive Design waren in aller Munde, sondern auch eine völlig neue Form der Usability. Der Touchscreen für den Massenmarkt wurde schnell von allen anderen Herstellern adaptiert und stellte UX- wie UI-Designer weltweit vor neue Herausforderungen.

Und die forderten auch eine neue Web-Architektur. Viele innovative Gestaltungsideen waren bis dahin nur durch Plug-Ins wie z.B. Flash möglich. Um eine flüssigere, von Drittanbietern unabhängige Experience zu gewährleisten, schlug die WHATWG dem W3C schon 2004 vor, den seit 1999 weitgehend unveränderten HTML4-Standard zu ersetzen. 2008 wurde der erste Working Draft für HTML5 vorgelegt. Dieser bot Entwicklern und Designern eine Fülle an neuen Möglichkeiten. Der speziell für Mobilgeräte optimierte Standard stand für schnellere Ladezeiten, flüssigere Mensch-Maschinen-Interaktionen und flexiblere Vektorelemente, kurzum:

“Recognizing the need is the primary condition for design.”– Charles Eames

Die Webgestaltung verlor ihre technische Abstraktheit und wich einer einfacheren, natürlicher wirkenden Erfahrung. Designing for people.

Ein Schritt mit Symbolwirkung für die ganze Branche: Die Zukunft gehörte nicht mehr zu installierender Software, sondern dynamischen Anwendungen. Zusammen mit den Smartphone-Apps bildete sich erstmals ein komplettes Ökosystem userfreundlicher, webbasierter Anwendungen. Ein Prozess, der bis heute anhält. Viele Tools finden komplett online statt. UX und UI verschmelzen immer mehr zu einer Disziplin. In den meisten Firmen wird ohnehin beides gefordert. Wir sind im Grunde wieder dort, wo wir vor knapp 100 Jahren gestartet sind: Ein guter Designer jongliert Ästhetik, Technik und Insights zu einer Experience.

2017- : Ausblick

Unsere digitale Erfahrung kommt uns mit den Jahren immer runder, immer weniger fremd vor. Dabei baut sie auf wenige, einfache Prinzipien, die sich an vielen erfolgreichen Innovationen der Menschheitsgeschichte ableiten lassen. Digitales Design perfektioniert den Spagat zwischen High-Tech-Know-How und menschlichen Insights in steter Weiterentwicklung. Und behält dabei den gesamtgesellschaftlichen Kontext immer im Blick. Ob wir es nun UX oder UI-Design nennen wollen: Es ist keine statische Wissenschaft. Es ist ein weites Feld verschiedener Disziplinen, das seine Aktualität immer wieder hinterfragen muss.

Und dieses Feld öffnet sich weiter.

Wir stehen am Scheidepunkt einer weiteren Umwälzung. 90% aller (iOS) Apps werden nach den ersten 30 Tagen nicht mehr genutzt. Das Prinzip des Betriebssystem scheint ausgedient und Tech-Giganten überbieten sich gegenseitig mit digitalen Assistenten. Aber welche Art der Mensch-Computer-Interaktion schafft es, die Haptik zu ersetzen? Welches visuelle oder akustische Feedback geben digitale Produkte, die auf unsere Stimme reagieren? Auf unsere Gesten, Blicke? Oder gar auf die Summe der menschlichen Reaktionen? Und wie sieht die digitale Architektur dahinter aus?

Es scheint, als würde aus form follows function in naher Zukunft function follows feeling.

Gute Zeiten für digitales Design.

  • 5 Minuten Lesezeit
  • Noch keine Reaktionen

Der große Bedarf an Fachkräften im Bereich Softwareentwicklung hat zunächst in den USA und dann weltweit dazu geführt, dass in den letzten Jahren mehr als 300 sogenannte Coding Bootcamps entstanden sind. Das Versprechen dieser Camps klingt verlockend, doch was steckt dahinter? Ersetzen Coding Bootcamps bald ganze Studiengänge?

„Wir bringen Dir in 12 Wochen das Programmieren bei und helfen Dir bei Deinem erfolgreichen Berufseinstieg als Programmierer.“ – mit diesem attraktiven Versprechen werben die meisten Coding Bootcamps. Viele Anbieter gehen sogar so weit, dass sie sich über prozentuale Anteile an den ersten Gehältern nach dem Camp finanzieren oder eine Geld-Zurück-Garantie geben, falls man kurze Zeit nach dem Camp noch keinen Arbeitsplatz als Programmierer gefunden hat. Der Preis vieler Angebote ist mit bis zu 20.000 US-Dollar dementsprechend hoch.

Mit Stackademy oder Hackership finden sich auch auf dem deutschen Markt Angebote dieser Art. Das deutsche Startup CareerFoundry hingegen verfolgt einen E-Learning-Ansatz, bei dem sechsmonatige Online-Kurse in den Bereichen Webdevelopment, UX Design und UI Design angeboten werden und es sogar eine Geld-zurück-Garantie gibt, falls man innerhalb von sechs Monaten nach Abschluss eines Kurses noch nicht seinen Traumjob gefunden hat.

Aber sind diese Versprechen auch realistisch, oder wird hier nur mit der Hoffnung der Menschen auf einen schnellen Ein- und Aufstieg viel Geld verdient, ohne dass sie langfristig davon profitieren? Oder anders gefragt: Kann ein 12-Wochen-Programm einem Kandidaten neben aktuellem Fachwissen mit begrenzter Halbwertszeit auch die Kompetenzen und Fähigkeiten vermitteln, die ihm helfen, 10 Jahre später noch in seinem Beruf auf der Höhe der Zeit zu sein und mit der dynamischen technologischen Entwicklung mitzuhalten?

Über 16.000 Teilnehmer haben letztes Jahr ein Bootcamp absolviert Quelle: Bootcamp Market Size Study 2015 von Course Report

Schaut man auf die Teilnehmerzahlen, scheinen viele diese Frage mit Ja zu beantworten. Waren es 2014 in den USA noch 6.740 Absolventen, schätzt Course Report die Zahl der Absolventen für das Jahr 2015 schon auf über 16.000. Der Umsatz der Anbieter ist entsprechend von 52 Mio. auf 172 Mio. US-Dollar gestiegen.

Gleichzeitig beleuchtet eine Absolventenstudie von Course Report (eventuell nicht ganz uneigennützig) den Erfolg der Programme. 665 Absolventen von 44 verschiedenen Coding Schools machten Angaben zu ihrem beruflichen Werdegang nach Abschluss des Bootcamps. Vier Monate nach Abschluss des Programms hatten 89 Prozent der Absolventen einen Job, ihr Gehalt verbesserte sich um durchschnittlich 18.000 US-Dollar. Damit hätten sie die durchschnittlich 11.852 US-Dollar für das Bootcamp schon wieder eingespielt.

Bootcamp-Graduates

Der Blick auf diese Zahlen wirft einige interessante Fragen auf, auch wenn man vielleicht nicht gleich so weit gehen muss wie jene, die im Erfolg der Boot Camps die Zukunft des Bildungswesens und den Untergang der Computer-Science-Studiengänge sehen. Roshan Choxi stellt in seinem (als Co-Founder eines Boot Camps vielleicht nicht ganz unvoreingenommen) Beitrag „Coding bootcamps are replacing computer science degrees“ diese Frage und verweist etwa auf den Kommentar von Daniel Gelernter, CEO des Tech-Startups Dittach:

The thing I don’t look for in a developer is a degree in computer science. University computer science departments are in miserable shape: 10 years behind in a field that changes every 10 minutes. Computer science departments prepare their students for academic or research careers and spurn jobs that actually pay money. They teach students how to design an operating system, but not how to work with a real, live development team.

There isn’t a single course in iPhone or Android development in the computer science departments of Yale or Princeton. Harvard has one, but you can’t make a good developer in one term. So if a college graduate has the coding skills that tech startups need, he most likely learned them on his own, in between problem sets. As one of my developers told me: ‘The people who were good at the school part of computer science—just weren’t good developers.’ My experience in hiring shows exactly that.

[…] But my lead developer didn’t graduate from college, and neither did my other full-stack developer. I do have one developer with a degree in electrical engineering: did he learn any of his development skills in college, I ask? No.

Sind Coding Bootcamps also die bessere Alternative zu Hochschulen? Müssen die bestehenden Hochschulen diese Entwicklung fürchten? Auch hierzu liefert die Absolventenstudie spannende Einblicke. Der durchschnittliche Teilnehmer ist 31 Jahre alt und hat bereits 7,5 Jahre Berufserfahrung sowie in fast 80 Prozent der Fälle mindestens einen Bachelor-Abschluss. Weniger als drei Prozent der Befragten hatten überhaupt keine College-Erfahrung.

Fast 80% der Bootcamp-Teilnehmer haben mindestens einen Bachelor-Abschluss Quelle: Alumni Outcomes & Demographics Study 2015 von Course Report

Also führt der typische Weg in ein Coding Bootcamp über ein (fachfremdes) Hochschulstudium. In diesem Sinne bieten Bootcamps keine vollwertige „Aus“bildung, sondern eine zielgerichtete „Weiter“bildung. Liegt das Geheimnis des Erfolgs vielleicht genau in dieser Kombination aus einer akademischen Bildung und einigen Jahren Berufserfahrung mit einer konzentrierten praxisorientierten Coding-Ausbildung?

Ein wenig erinnert das Profil der Bootcamp-Absolventen, die zuvor einen akademischen Abschluss in einem anderen Fach gemacht haben, an das Konzept der T-Shaped Professionals, für die sich unter anderem Tim Brown, CEO von IDEO, stark macht.

Die Kritik an typischen Informatik-Absolventen richtet sich passenderweise auch fast immer auf ihre mangelnde Anschlussfähigkeit gegenüber Nicht-Techies bzw. ihre fehlenden praktischen, kommunikativen und sozialen Skills. Im Gegensatz dazu bringen die hier beschriebenen Bootcamp-Absolventen bereits die mit einem Bachelor-Abschluss verbundene kommunikative und soziale Lernerfahrung sowie eine Expertise aus einem anderen Studienfach mit, die sie auch für Nicht-Techies anschlussfähig machen.

Erste Hochschulen haben in Folge bereits damit begonnen, Boot Camps nicht als Bedrohung sondern als Chance zu begreifen und sie in ihre bestehenden Studiengänge zu integrieren. Das ist auf der einen Seite ein Zeichen für Aufgeschlossenheit, auf der anderen Seite aber auch ein Hinweis darauf, dass diese Hochschulen, obwohl sie das Problem erkannt haben, nicht in der Lage oder willens sind, ihre eigenen Studienprogramme entsprechend zu verändern.

Die durchschnittlichen Kosten für ein Bootcamp liegen bei 11.000 Dollar Quelle: Bootcamp Market Size Study 2015 von Course Report

Nun kann die Empfehlung an einen jungen Menschen schlecht die sein, sich irgendein Studium zu suchen und anschließend an einem Coding Bootcamp teilzunehmen. Stattdessen muss die Frage doch lauten, wie ein Bildungsprogramm aussehen müsste, das die Vorteile eines akademischen Studiums mit dem verbindet, was Boot Camps in den Augen der Teilnehmern und der Arbeitgeber so attraktiv macht?

Vorstellbar wäre ein projektbasiertes Studium, in dem die Studierenden – statt über mehrere Semester in Grundlagenveranstaltungen zu sitzen – von Beginn an an praxisrelevanten Projekten arbeiten, während die Dozenten der Hochschule die Studierenden bei ihrer fachlichen und persönlichen Entwicklung anleiten und ihnen zu den passenden Zeitpunkten helfen, sich die theoretischen und methodischen Grundlagen zu erarbeiten, deren praktische Relevanz sich aus der Projekterfahrung herleitet.

In einem solchen Studium wäre die intensive Projektarbeit eingebettet in einen größeren Lernzusammenhang, der ausreichend Raum und Anleitung für die Entwicklung von theoretischen, sozialen und kommunikativen Fähigkeiten bietet. Und alle Absolventen hätten über ihre Projekte schon eine Vielzahl an Kontakten zu potentiellen Arbeitgebern oder auch Mitgründern.

„Welcome to the future of computer science education“ gefunden auf der Homepage der Make School

Einen solchen Ansatz verfolgen Startups wie die Make School und die Holberton School, beide ansässig in San Francisco. Sie bieten ein zweijähriges, stark projektbasiertes und studiumsähnliches Modell an, das sie als Alternative zum College positionieren. Ein in unseren Augen sehr erfolgversprechendes Modell, das die Vorteile beider Welten miteinander zu verbinden versucht.

Bleibt zu hoffen, dass die bestehenden Hochschulen den Erfolg der Coding Bootcamps nicht als Bedrohung, sondern als Impuls interpretieren, ihre eigenen Studienprogramme zu überarbeiten und auf eine zeitgemäße Didaktik umzustellen.

Und was das oben beschriebene projektbasierte Studium angeht – wenn es so eine Hochschule nicht schon gibt, sollte man dringend eine gründen


In unserem nächsten Blogpost: Warum es Coding Bootcamps deutlich besser gelingt, weibliche Teilnehmer zu gewinnen als klassischen Studiengängen in Deutschland und den USA, und was wir daraus lernen können, um in Zukunft mehr Frauen für digitale Berufe zu begeistern.

  • 4 Minuten Lesezeit
  • 1 Reaktion

Wenn wir mit anderen über unsere Idee sprechen, die Bildungswelt im Bereich der digitalen Berufe zu verändern, stolpern wir immer wieder über ein Problem: Viel zu oft wird in den Diskussionen nicht zwischen Informatik und Software-Entwicklung unterschieden.

Egal ob in Studien zum digitalen Fachkräftemangel, in entsprechenden Stellenausschreibungen oder bei der Forderung der Politik nach besseren Bildungsprogrammen zur Förderung von digitalen Kompetenzen: In den meisten Fällen fehlt eine präzise Definition der Kompetenzen, um die es geht. Beschreibungen und Begriffe wie IT-Fachmann, Software-Entwickler, Programmierer, Informatiker und Computerwissenschaftler werden dabei oft synonym benutzt und damit in einen Topf geworfen.

Wenn Europa bis zum Jahr 2020 820.000 IT-Fachleute braucht, bedeutet das dann also, dass jetzt jeder anfangen sollte, Informatik zu studieren?

Sicherlich nicht.

Computer science is about taking complex problems and deriving a solution from math, science and computational theory.David Budden in “Degrees Demystified

Informatiker sind in erster Linie Wissenschaftler. Sie erarbeiten sich ein fundiertes Verständnis der theoretischen Grundlagen von Mathematik und Informationswissenschaften, können komplexe Algorithmen entwickeln und die wissenschaftliche Forschung vorantreiben. Sie arbeiten in einer Welt, die aus präzisen Analysen, klar definierten Konzepten und belastbaren Fakten besteht.

Die digitalen Kompetenzen, die in Arbeitsmarktstudien dargestellt, in Stellenanzeigen gesucht und in politischen Statements gefordert werden, sind jedoch meist anders gelagert. Sie beinhalten die Fähigkeit, mit anderen Menschen zu kommunizieren und sinnvolle Software-Lösungen für praktische Probleme zu kreieren, und dies mit begrenzten Ressourcen in einer unsicheren und sich dynamisch verändernden Welt.

David Budden beschreibt den Unterschied in seiner Analyse wie folgt:

Where computer science is about taking complex problems and deriving a solution from mathematics, science and computational theory, software engineering is very much focused around designing, developing and documenting beautiful, complete, user-friendly software.

Chuck Connell verwendet die folgende Analogie in seinem Artikel „Software Engineering ≠ Computer Science“:

Imagine a brilliant structural engineer who is the world’s expert on building materials, stress and strain, load distributions, wind shear, earthquake forces, etc. Architects in every country keep this person on their speed-dial for every design and construction project. Would this mythical structural engineer necessarily be good at designing the buildings he or she is analyzing? Not at all. Our structural engineer might be lousy at talking to clients, unable to design spaces that people like to inhabit, dull at imagining solutions to new problems, and boring aesthetically. Structural engineering is useful to physical architects, but is not enough for good design. Successful architecture includes creativity, vision, multi-disciplinary thinking, and humanity.

Gleiches gilt für die Software-Entwicklung.

Warum ist diese Unterscheidung so wichtig?

  1. Weil sie angehenden Studierenden dabei hilft, ein Studium zu wählen, das ihren Fähigkeiten entspricht: Viele haben durchaus das Zeug dazu, erfolgreiche Software-Entwickler zu werden, aber vielleicht nicht die notwendigen Fähigkeiten, um ein mathematisch anspruchsvolles Informatikstudium zu absolvieren. Wir können es uns nicht leisten, auf diese Weise viele junge Talente zu entmutigen, eine Karriere als Software-Entwickler einzuschlagen. Sarah Mei schreibt dazu in ihrem Artikel „Programming is not math“: „Learning to program is more like learning a new language than it is like doing math problems. And the experience of programming today, in industry, is more about language than it is about math.“
  2. Weil sie notwendig ist, damit angehende Studierende sich für ein Studium entscheiden, das zu ihren Erwartungen passt: Wer ein Informatik-Studium mit dem Ziel beginnt, ein guter Software-Entwickler zu werden, wird mit hoher Wahrscheinlichkeit enttäuscht werden. Informatik ist eben kein Studium, in dem man lernt zu programmieren, wie David Budden es beschreibt. Die Quote der Studienabbrecher im Informatikbereich (an einigen deutschen Universitäten fast 40%) sind das traurige Ergebnis dieser enttäuschten Erwartungen.
  3. Weil sie Politikern und engagierten Institutionen aufzeigt, welche Ansätze und Instrumente sinnvoll dazu beitragen können, die Ausbildung digitaler Kompetenzen zu verbessern und die Qualifikationslücke in diesem Bereich zu schließen.
  4. Weil sie Arbeitgebern hilft, die richtigen Mitarbeiter finden, um die digitale Transformation erfolgreich mitzugestalten.
  5. Weil wir nur so verstehen, wie ein Studium gestaltet sein muss, das seine Absolventen mit den Fähigkeiten ausstattet, die es ihnen ermöglichen, erfolgreiche Software-Entwickler zu werden und die Anforderungen ihrer zukünftigen Arbeitgeber zu erfüllen.

Software engineering is very much focused around designing, developing and documenting beautiful, complete, user-friendly software.David Budden in “Degrees Demystified

Unser Ziel ist es nicht, die Bedeutung der Informatik als wissenschaftliche Disziplin oder die Rolle ihrer Absolventen als treibende Kraft hinter digitaler Innovation und wissenschaftlichem Fortschritt zu mindern. Aber die überwiegende Mehrheit der 800.000 fehlenden digitalen Fachkräfte benötigt nicht das Kompetenzprofil eines Informatikers. Gesucht werden kreative Problemlöser mit Kommunikations- und sozialer Kompetenz und der Fähigkeit, wissenschaftliche Innovationen in der Praxis anzuwenden.


Während das Bildungssystem in den englischsprachigen Ländern zumindest die Unterscheidung zwischen Informatik (Computer Science) und Software-Entwicklung (Software Engineering) ermöglicht, sprechen wir in Deutschland fast ausschließlich von Informatik, der Wissenschaft der systematischen Verarbeitung von Information. Es gibt Varianten wie „Angewandte Informatik“, „Technische Informatik“ oder „Medieninformatik“, aber der Ausgangspunkt dieser Diskussion ist und bleibt der Bereich Informatik. Da es in der deutschen Bildungslandschaft ein gut etabliertes duales Ausbildungssystem gibt, haben sich die deutschen Universitäten traditionell auf die wissenschaftliche Ausbildung konzentriert und die Vermittlung von praktischem Wissen und anwendungsorientierten Fähigkeiten im Sinne zukünftige Arbeitgeber eher geringschätzig betrachtet. Aus diesem Grund ist der Bedarf für ein anwendungsorientiertes Softwareentwicklungs-Studium als Alternative zur Informatik in Deutschland besonders groß (wie auch dieser Kommentar ausführt).


In unserem nächsten Beitrag werden wir einen Blick auf die Reaktion der Bildungsanbieter auf die derzeitige Nachfrage nach Software-Entwicklern werfen: Die erstaunliche Masse und der scheinbare Erfolg der Coding Bootcamps.