Die Informatik ist längst kein Nischenthema mehr – sie prägt unseren Alltag auf Schritt und Tritt. Ob Smartphone, Navigationssystem, Online‑Banking, Streaming oder moderne Forschung: Hinter all diesen Technologien steckt das Zusammenspiel aus Daten, Algorithmen und digitalen Systemen. Für viele wirkt Informatik zunächst abstrakt oder technisch, doch im Kern geht es um etwas sehr Menschliches: Informationen verstehen, strukturieren und nutzen.
Dieser Beitrag bietet einen verständlichen Einstieg in die Grundlagen der Informatik und zeigt, warum sie heute zu den wichtigsten Wissenschaften unserer Zeit gehört.
🧠 Definition der Informatik
Als Informatik bezeichnet man die Wissenschaft, die sich mit den theoretischen Grundlagen, für Eingabe, Verarbeitung und Ausgabe von Daten, also mit der Anwendung der elektronischen Datenverarbeitung beschäftigt.
Im Kern bedeutet das: Informatik untersucht, wie Informationen dargestellt, verarbeitet und genutzt werden können – insbesondere mithilfe von Computern.
Beachte dabei jedoch, dass die Prinzipien oft nicht nur für Computer, sondern auch für Menschen gelten können.
⚡ Elektronische Datenverarbeitung – kurz erklärt
Unter elektronischer Datenverarbeitung (EDV) versteht man die automatische Verarbeitung von Informationen mithilfe elektronischer Systeme – in der Regel Computern. Dabei werden Daten erfasst, gespeichert, verarbeitet und ausgegeben, ohne dass der Mensch jeden einzelnen Schritt manuell ausführen muss.
Typische Bestandteile der EDV sind:
- Hardware wie Prozessoren, Speicher und Eingabegeräte
- Software, die die Verarbeitung steuert
- Daten, die in strukturierter Form vorliegen
- Prozesse, die festlegen, wie aus Daten nutzbare Informationen werden
Im Kern ermöglicht EDV, große Datenmengen schnell, zuverlässig und wiederholbar zu verarbeiten – eine Grundvoraussetzung für moderne Informatiksysteme.
✅ Vorteile der automatisierten Datenverarbeitung
- Höhere Geschwindigkeit
Computer können große Datenmengen in Sekunden verarbeiten – weit schneller, als es manuell möglich wäre. Das ermöglicht Echtzeitanalysen, schnelle Entscheidungen und effiziente Abläufe. - Höhere Zuverlässigkeit
Automatisierte Prozesse arbeiten konsistent und machen keine Flüchtigkeitsfehler. Solange die Software korrekt entwickelt wurde, liefert sie reproduzierbare Ergebnisse. - Geringere Kosten
Einmal eingerichtet, können automatisierte Systeme viele Aufgaben dauerhaft übernehmen. Das reduziert langfristig Personal‑, Bearbeitungs‑ und Fehlerkosten.
⚠️ Nachteile der automatisierten Datenverarbeitung
- Verlust von Arbeitsplätzen
Wenn Prozesse automatisiert werden, fallen manche Tätigkeiten weg. Gleichzeitig entstehen aber auch neue Aufgaben – etwa in Wartung, Entwicklung und Überwachung digitaler Systeme. - Risiko fehlerhafter Software oder Konfigurationen
Automatisierung ist nur so gut wie die Software dahinter. Programmierfehler, falsche Einstellungen oder unzureichende Tests können zu falschen Ergebnissen oder sogar zu Systemausfällen führen. - Blindes Vertrauen in die Datenverarbeitung
Blindes Vertrauen in automatisierte Datenverarbeitung kann gefährlich sein, weil Fehler in Daten, Programmen oder Konfigurationen oft unbemerkt bleiben und dennoch als korrekt angenommen werden. Wer Ergebnisse nicht hinterfragt, riskiert falsche Entscheidungen, die sich durch die scheinbare „Objektivität“ digitaler Systeme nur schwer erkennen lassen.
🖥️ Was ist ein Computer? – verständlich erklärt
Ein Computer ist ein elektronisches Gerät, das Daten auf Grundlage von Eingaben speichern, verarbeiten und ausgeben kann. Er kann mit ihnen Berechnungen durchführen, andere Geräte steuern und ermöglicht die Kommunikation zwischen Menschen und weiteren Systemen.
Kurz gesagt: Ein Computer nimmt Informationen entgegen, verarbeitet sie nach festgelegten Regeln und liefert daraus neue, nutzbare Ergebnisse.
Damit wird er zum zentralen Werkzeug der Informatik – denn ohne Computer wäre moderne Datenverarbeitung weder effizient noch automatisierbar
Ein Computernetzwerk verbindet mehrere Computer oder digitale Geräte miteinander, sodass sie Daten austauschen und gemeinsam Ressourcen nutzen können. Über solche Netzwerke lassen sich Informationen schnell übertragen, Dateien teilen, Dienste bereitstellen oder Geräte fernsteuern. Netzwerke reichen von kleinen Heimnetzwerken bis hin zum globalen Internet und bilden die Grundlage dafür, dass moderne Kommunikation, Zusammenarbeit und Datenverarbeitung überhaupt möglich sind.
EVA-Prinzip
Das EVA‑Prinzip beschreibt das grundlegende Schema eines Computers. Jeder Computer, egal ob Smartphone, Laptop oder Server, folgt diesem einfachen, aber mächtigen Ablauf:

EVA-Prinzip. Quelle: Technik-Kiste.de
1. Eingabe (E)
Zunächst erhält der Computer Daten oder Befehle.
Das kann über Tastatur, Maus, Sensoren, Mikrofone, Netzwerke oder andere Geräte geschehen.
Beispiele: Texteingaben, Mausklicks, Messwerte, empfangene Datenpakete.
2. Verarbeitung (V)
Im nächsten Schritt werden die eingegebenen Daten nach festgelegten Regeln verarbeitet.
Hier kommen Programme, Algorithmen und logische Operationen ins Spiel.
Beispiele: Berechnungen durchführen, Daten filtern, Entscheidungen treffen, Bilder analysieren.
3. Ausgabe (A)
Zum Schluss gibt der Computer das Ergebnis der Verarbeitung wieder aus.
Das kann visuell, akustisch oder in Form von gespeicherten oder übertragenen Daten erfolgen.
Beispiele: Anzeige auf dem Bildschirm, Ausdruck, gespeicherte Datei, gesendete Nachricht.
Es reduziert die Funktionsweise eines Computers auf das Wesentliche. Egal wie komplex ein System ist: am Ende läuft alles auf Eingabe → Verarbeitung → Ausgabe hinaus.
💡Hinweis: In vielen englischsprachigen Quellen wird das EVA‑Prinzip als IPO‑Modell bezeichnet. IPO steht für Input – Process – Output und beschreibt exakt dasselbe
Grundprinzip: Input → Eingabe, Process → Verarbeitung, Output → Ausgabe
Damit ist IPO einfach die internationale Bezeichnung für das EVA‑Prinzip. Beide Modelle erklären die grundlegende Funktionsweise eines Computers, nur in unterschiedlichen Sprachen.
💾 Warum „Speichern“ im EVA‑Prinzip nicht auftaucht
Das EVA‑Prinzip beschreibt nur die grundlegende Abfolge, wie ein Computer Daten verarbeitet: Eingabe → Verarbeitung → Ausgabe.
Das Speichern gehört streng genommen nicht zu diesem Kernablauf, sondern ist eine unterstützende Funktion, die an verschiedenen Stellen stattfinden kann:
- Vor der Verarbeitung (z. B. wenn Eingabedaten zunächst im Speicher abgelegt werden)
- Während der Verarbeitung (z. B. Zwischenergebnisse in RAM)
- Nach der Ausgabe (z. B. dauerhafte Speicherung auf einer Festplatte)
Speichern ist also kein eigener Schritt, sondern ein Hilfsprozess, der den EVA‑Ablauf ermöglicht und begleitet. Deshalb taucht es im klassischen EVA‑Modell nicht als vierter Punkt auf.
🧩Programme und deren Programmierung
Elektronische Datenverarbeitung funktioniert nicht einfach „von selbst“. Damit ein Computer etwas Sinnvolles tun kann, benötigt er Programme – also präzise formulierte Anweisungen, die festlegen, wie ein bestimmtes Verfahren ablaufen soll. Ein Programm bildet damit das ab, was Menschen sich zuvor überlegt haben: eine Schritt‑für‑Schritt‑Lösung für eine Aufgabe.
Bevor ein Programm entstehen kann, braucht es immer einen Algorithmus.
Ein Algorithmus beschreibt das Verfahren, das ein Problem lösen soll – klar, eindeutig und vollständig. Erst wenn dieses Verfahren feststeht, kann es in eine Programmiersprache übersetzt werden, die der Computer versteht.
Programme übernehmen dabei eine Vermittlerrolle:
- Der Algorithmus ist die abstrakte Idee, wie ein Problem gelöst wird.
- Das Programm ist die konkrete Umsetzung dieser Idee in einer maschinenverständlichen Sprache.
- Der Computer führt diese Anweisungen schließlich aus.
Da Computer keine natürliche Sprache verstehen, müssen Programme in klar definierten, strukturierten und unmissverständlichen Befehlen formuliert sein. Jede Unschärfe im Algorithmus würde sich sonst direkt als Fehler im Programm bemerkbar machen.
⏳ Warum Algorithmen endlich sein müssen
Ein Computer kann nicht unbegrenzt laufen. Deshalb muss auch ein Algorithmus so gestaltet sein, dass er sich in endlich vielen Schritten ausführen lässt.
Ein Verfahren, das unendlich wiederholt wird, könnte niemals ein Ergebnis liefern – und damit auch kein Problem lösen.
Ein Algorithmus muss daher:
- eindeutig formuliert sein
- endlich viele Regeln enthalten
- in endlich vielen Schritten zum Ergebnis führen
- ein konkretes Problem lösen
Erst wenn diese Bedingungen erfüllt sind, kann daraus ein funktionierendes Programm entstehen.
⚙️ Vom Algorithmus zum Prozess und zum Prozessor
Wird ein Algorithmus ausgeführt, spricht man von einem Prozess.
Derjenige, der diesen Prozess ausführt, heißt Prozessor:
- Mensch als Prozessor: Rechnest du zwei Zahlen auf Papier aus, führst du den Algorithmus selbst aus.
- Computer als Prozessor: Lässt du dieselbe Rechnung vom Rechner erledigen, übernimmt der Computer (genauer: seine CPU) die Rolle des Prozessors.
Bei einfachen Verfahren kann der Mensch noch „Prozessor“ sein, bei großen Datenmengen oder komplexen Algorithmen ist das nur noch maschinell sinnvoll möglich. In deinem Beitrag kannst du hier elegant den Bogen zu moderner Datenverarbeitung schlagen.
🧾 Vom Algorithmus zur Programmiersprache
Damit ein Computer einen Algorithmus ausführen kann, muss er ihn verstehen und ausführen können.
Dafür braucht es zwei Dinge:
- Eindeutige Schritte: Jeder Einzelschritt des Algorithmus muss klar definiert sein.
- Ausführbare Operationen: Der Computer muss die geforderten Operationen technisch unterstützen.
Da Computer keine natürliche Sprache verstehen, wird der Algorithmus in eine Programmiersprache übersetzt.
So entsteht aus der abstrakten Verfahrensbeschreibung ein Programm, das der Prozessor ausführen kann.
Wichtiger Merksatz für deinen Beitrag:
Algorithmen, die auf einem Computer ausgeführt werden sollen, müssen mithilfe einer Programmiersprache als Programme formuliert werden.
Der Algorithmus bleibt dabei grundsätzlich unabhängig von der konkreten Programmiersprache. In der Praxis orientiert man sich aber oft schon beim Entwurf an der später verwendeten Sprache.
🧱 Drei Schritte auf dem Weg zum Programm
Wenn du ein Problem mit einem Programm lösen möchtest, ist ein schrittweises Vorgehen sinnvoll. Eine klassische Einteilung besteht aus drei Phasen:
- Problemdefinition
Was soll überhaupt gelöst werden?
Das Ziel wird so genau wie möglich beschrieben. Unklare oder fehlende Problemdefinition führt schnell zu „wildem Programmieren“ ohne klare Richtung. - Programmentwurf (Algorithmus)
Wie soll das Problem gelöst werden?
In dieser Phase wird der Algorithmus entwickelt: die Verfahrensschritte, noch unabhängig von Syntax, aber bereits klar strukturiert. - Programmierung
Womit wird die Lösung umgesetzt?
Der entworfene Algorithmus wird in einer konkreten Programmiersprache als Programm realisiert.
💡Hinweis: möchtest du mehr über Algorithmen erfahren, dann schaue dir gerne den entsprechenden Beitrag auf Technik-Kiste.de an.
🧱 Hardware und Software – die zwei Seiten eines Computers
Ein Computer besteht nicht nur aus sichtbaren, greifbaren Bauteilen wie Prozessor, Arbeitsspeicher oder Festplatte. Diese physischen Komponenten bezeichnet man als Hardware. Sie bilden die technische Grundlage, auf der ein Computer überhaupt funktionieren kann.
Doch Hardware allein reicht nicht aus. Ein Computer dient vor allem dazu, Algorithmen auszuführen, und diese liegen nicht als physische Objekte vor. Programme und Algorithmen sind abstrakte Konstrukte, die zwar gespeichert werden können, aber nicht materiell existieren. Um diesen Gegensatz sichtbar zu machen, spricht man von Software – also der Gesamtheit aller Programme, die auf einem Computer eingesetzt werden können.
🧩 Systemsoftware und Anwendungssoftware
Software lässt sich grob in zwei Kategorien einteilen:
1. Systemsoftware
Sie bildet die Grundlage für den Betrieb des Computers. Dazu gehört vor allem das Betriebssystem, das zentrale Aufgaben übernimmt:
- Benutzeranmeldung
- Laden und Ausführen von Programmen
- Verwaltung von Dateien
- Organisation von Prozessen
- Schutz vor gegenseitiger Beeinflussung laufender Programme
- Verwaltung der Hardware‑Ressourcen
Ob Windows, Linux oder ein anderes System – die grundlegenden Aufgaben sind immer dieselben. Ohne Systemsoftware wäre ein Computer praktisch unbenutzbar.
Zur Systemsoftware zählen außerdem verschiedene Dienstprogramme und Werkzeuge, die den Betrieb unterstützen, etwa Dateiverwaltungstools oder Systemdiagnoseprogramme.
2. Anwendungssoftware
Das sind die Programme, die konkrete Aufgaben für den Benutzer lösen – von Lohnabrechnung über Textverarbeitung bis hin zu Wettermodellen oder Spielen.
Alles, was du selbst programmierst, fällt in diese Kategorie.
💡Hinweis: Software umfasst alle Programme eines Computers. Sie wird unterteilt in Systemsoftware (z. B. Betriebssystem) und Anwendungssoftware (z. B. Fachprogramme).
🧭 Von chaotischem Code zu strukturiertem Programmieren
In den frühen Tagen der Programmierung schrieb jeder Entwickler nach eigenem Stil. Das führte zu schwer lesbaren Programmen, die voller unkontrollierter Sprünge waren. Ein Programm konnte an einer Stelle beginnen, plötzlich an eine völlig andere Stelle springen und dann wieder zurückspringen – ein Stil, der Programme schnell unverständlich und fehleranfällig machte.
Der Informatiker Edsger Dijkstra kritisierte diese Praxis deutlich und legte damit den Grundstein für die strukturierte Programmierung.
Ihr Grundprinzip:
Programme sollen ohne unkontrollierte Sprünge auskommen und stattdessen klaren, nachvollziehbaren Strukturen folgen.
Um das zu erreichen, nutzt man drei grundlegende Kontrollstrukturen:
- Sequenz – Anweisungen werden der Reihe nach ausgeführt
- Auswahl – Entscheidungen (z. B. if‑else) steuern den Ablauf
- Wiederholung – Schleifen führen Anweisungen mehrfach aus
Ein Programm gilt als strukturiert, wenn es ausschließlich auf diesen drei Bausteinen basiert und keine Sprunganweisungen verwendet.
