ein paar updates , code mehr clean machen , probleme und mini bugs lösen

This commit is contained in:
El Haddoury Younes
2026-02-10 11:09:27 +01:00
parent 921887c912
commit e25ace8d42
3 changed files with 38917 additions and 40 deletions

BIN
bildPy/models/names.pkl Normal file

Binary file not shown.

38876
bildPy/models/trained_lbph.yml Normal file

File diff suppressed because it is too large Load Diff

View File

@@ -4,70 +4,67 @@ import numpy as np
import pickle import pickle
# --- KONFIGURATION --- # --- KONFIGURATION ---
# Da wir in 'src' sind, greifen wir auf die übergeordneten Ordner zu # Pfade zu den Daten- und Modellordnern
RAW_DATA_PFAD = "../data_raw" RAW_DATA_PFAD = "../data_raw"
MODEL_PFAD = "../models" MODEL_PFAD = "../models"
# yml für biometrische Daten # Datei für die trainierten biometrischen Daten
MODEL_FILE = os.path.join(MODEL_PFAD, "trained_lbph.yml") MODEL_FILE = os.path.join(MODEL_PFAD, "trained_lbph.yml")
# Mapping der IDs aus den Bio-Daten zu echten Personennamen # Datei für das Mapping von IDs zu Personennamen
NAMES_FILE = os.path.join(MODEL_PFAD, "names.pkl") NAMES_FILE = os.path.join(MODEL_PFAD, "names.pkl")
# Gesicht-Detektor (Haar Cascade) initialisieren # Initialisierung des Haar-Cascade-Detektors für die Gesichtserkennung
face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml') face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')
# LBPH Recognizer initialisieren # Initialisierung des LBPH-Recognizers [cite: 8]
recognizer = cv2.face.LBPHFaceRecognizer_create() recognizer = cv2.face.LBPHFaceRecognizer_create()
# Hilfsfunktion: Erstellt Ordner, falls sie nicht existieren
def create_directory_if_not_exists(directory): def create_directory_if_not_exists(directory):
"""Erstellt den Zielordner, falls dieser nicht existiert."""
if not os.path.exists(directory): if not os.path.exists(directory):
os.makedirs(directory) os.makedirs(directory)
# Funktion: Trainiert das Modell
def train_model(): def train_model():
print("\n--- Training hat angefangen ---") """Lädt Bilder, extrahiert Gesichter und trainiert das LBPH-Modell."""
print("\n--- Training wird gestartet ---")
faces = [] faces = []
ids = [] ids = []
names_map = {} names_map = {}
current_id = 0 current_id = 0
# Überprüft, ob der Daten-Ordner existiert
if not os.path.exists(RAW_DATA_PFAD): if not os.path.exists(RAW_DATA_PFAD):
print(f"Fehler: Verzeichnis '{RAW_DATA_PFAD}' nicht gefunden.") print(f"Fehler: Ordner '{RAW_DATA_PFAD}' nicht gefunden.")
return return
# Geht durch jeden Ordner in data_raw (z.B. diddy, kirk, etc.) # Durchläuft alle Personen-Ordner in data_raw [cite: 31]
for person_name in os.listdir(RAW_DATA_PFAD): for person_name in os.listdir(RAW_DATA_PFAD):
person_path = os.path.join(RAW_DATA_PFAD, person_name) person_path = os.path.join(RAW_DATA_PFAD, person_name)
# Überspringt alles, was kein Ordner ist (z.B. .DS_Store oder .txt Dateien)
if not os.path.isdir(person_path): if not os.path.isdir(person_path):
continue continue
names_map[current_id] = person_name names_map[current_id] = person_name
print(f"Verarbeite ID {current_id}: {person_name}") print(f"Verarbeite Person: {person_name} (ID: {current_id})")
# Geht durch jedes Bild im Ordner der jeweiligen Person
for image_name in os.listdir(person_path): for image_name in os.listdir(person_path):
# Überspringt unsichtbare Dateien, die mit '.' starten
if image_name.startswith("."): if image_name.startswith("."):
continue continue
image_path = os.path.join(person_path, image_name) image_path = os.path.join(person_path, image_name)
# Lädt das Bild und konvertiert es in Graustufen (Grayscale)
img = cv2.imread(image_path) img = cv2.imread(image_path)
if img is None: if img is None:
continue continue
# Konvertierung in Graustufen für die LBP-Extraktion [cite: 36]
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# Detektiert Gesichter im Bild # Gesichter im Bild erkennen
faces_rects = face_cascade.detectMultiScale(gray, scaleFactor=1.2, minNeighbors=5) faces_rects = face_cascade.detectMultiScale(gray, scaleFactor=1.2, minNeighbors=5)
for (x, y, w, h) in faces_rects: for (x, y, w, h) in faces_rects:
# Region of Interest (ROI) - das gefundene Gesicht ausschneiden # Gesichtsbereich (ROI) ausschneiden
roi = gray[y:y + h, x:x + w] roi = gray[y:y + h, x:x + w]
faces.append(roi) faces.append(roi)
ids.append(current_id) ids.append(current_id)
@@ -75,14 +72,14 @@ def train_model():
current_id += 1 current_id += 1
if len(faces) == 0: if len(faces) == 0:
print("Keine Gesichter gefunden. Bitte prüfe den 'data_raw' Ordner.") print("Fehler: Keine Gesichter im 'data_raw' Ordner gefunden.")
return return
# Trainiert das LBPH Modell # Modell mit den gesammelten Gesichtern trainieren
print(f"\nTraining mit {len(faces)} Gesichtsproben...") print(f"Training mit {len(faces)} Gesichtsproben läuft...")
recognizer.train(faces, np.array(ids)) recognizer.train(faces, np.array(ids))
# Speichert das Modell und die Namensliste # Modell und Namenszuordnung speichern
create_directory_if_not_exists(MODEL_PFAD) create_directory_if_not_exists(MODEL_PFAD)
recognizer.write(MODEL_FILE) recognizer.write(MODEL_FILE)
with open(NAMES_FILE, 'wb') as f: with open(NAMES_FILE, 'wb') as f:
@@ -91,12 +88,12 @@ def train_model():
print(f"Erfolg! Modell gespeichert unter: {MODEL_FILE}") print(f"Erfolg! Modell gespeichert unter: {MODEL_FILE}")
# Funktion: Erkennt Gesichter in Echtzeit (Webcam)
def recognize_faces(): def recognize_faces():
print("\n--- Gesichtserkennung gestartet ---") """Startet die Live-Erkennung über die Webcam."""
print("\n--- Live-Erkennung gestartet ---")
if not os.path.exists(MODEL_FILE) or not os.path.exists(NAMES_FILE): if not os.path.exists(MODEL_FILE) or not os.path.exists(NAMES_FILE):
print("Fehler: Modell nicht gefunden. Bitte zuerst Option 1 (Training) ausführen.") print("Fehler: Kein trainiertes Modell gefunden. Bitte zuerst Option 1 wählen.")
return return
# Modell und Namen laden # Modell und Namen laden
@@ -104,8 +101,9 @@ def recognize_faces():
with open(NAMES_FILE, 'rb') as f: with open(NAMES_FILE, 'rb') as f:
names_map = pickle.load(f) names_map = pickle.load(f)
# Webcam-Stream öffnen
cap = cv2.VideoCapture(0) cap = cv2.VideoCapture(0)
print("Drücke 'q', um das Fenster zu schließen.") print("Info: Drücke 'q', um die Erkennung zu beenden.")
while True: while True:
ret, frame = cap.read() ret, frame = cap.read()
@@ -117,23 +115,27 @@ def recognize_faces():
for (x, y, w, h) in faces_rects: for (x, y, w, h) in faces_rects:
roi_gray = gray[y:y + h, x:x + w] roi_gray = gray[y:y + h, x:x + w]
# Vorhersage treffen (ID und Confidence-Wert) [cite: 48, 49]
# Hinweis: Ein niedrigerer Confidence-Wert bedeutet eine höhere Genauigkeit bei LBPH.
id_, confidence = recognizer.predict(roi_gray) id_, confidence = recognizer.predict(roi_gray)
# Bei LBPH gilt: Niedrigerer Wert = Bessere Übereinstimmung if confidence < 85: # Schwellenwert für die Erkennung [cite: 49]
if confidence < 85:
name = names_map[id_] name = names_map[id_]
conf_text = f"{round(100 - confidence)}%" prozent = f"{round(100 - confidence)}%"
else: else:
name = "Unbekannt" name = "Unbekannt"
conf_text = f"{round(100 - confidence)}%" prozent = f"{round(100 - confidence)}%"
# Rechteck und Text zeichnen # Farbe festlegen: Grün für bekannt, Rot für unbekannt
color = (0, 255, 0) if name != "Unbekannt" else (0, 0, 255) color = (0, 255, 0) if name != "Unbekannt" else (0, 0, 255)
cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
cv2.putText(frame, name, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, color, 2)
cv2.putText(frame, conf_text, (x, y + h + 30), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (255, 255, 0), 1)
cv2.imshow("LBPH Gesichtserkennung Projekt", frame) # Rahmen und Text im Bild einblenden
cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
cv2.putText(frame, f"{name} ({prozent})", (x, y - 10),
cv2.FONT_HERSHEY_SIMPLEX, 0.8, color, 2)
cv2.imshow("Klassenprojekt - LBPH Gesichtserkennung", frame)
if cv2.waitKey(1) & 0xFF == ord('q'): if cv2.waitKey(1) & 0xFF == ord('q'):
break break
@@ -142,12 +144,11 @@ def recognize_faces():
cv2.destroyAllWindows() cv2.destroyAllWindows()
# Hauptmenü Steuerung
if __name__ == "__main__": if __name__ == "__main__":
while True: while True:
print("\n=== KLASSENPROJEKT MENÜ ===") print("\n=== LBPH GESICHTSERKENNUNG MENÜ ===")
print("1. Modell trainieren") print("1. Modell trainieren")
print("2. Erkennung starten (Webcam)") print("2. Live-Erkennung starten (Webcam)")
print("3. Beenden") print("3. Beenden")
wahl = input("Wähle eine Option (1-3): ") wahl = input("Wähle eine Option (1-3): ")
@@ -157,7 +158,7 @@ if __name__ == "__main__":
elif wahl == '2': elif wahl == '2':
recognize_faces() recognize_faces()
elif wahl == '3': elif wahl == '3':
print("Programm wird beendet.") print("Programm beendet.")
break break
else: else:
print("Ungültige Eingabe.") print("Ungültige Eingabe.")