ein paar updates , code mehr clean machen , probleme und mini bugs lösen
This commit is contained in:
BIN
bildPy/models/names.pkl
Normal file
BIN
bildPy/models/names.pkl
Normal file
Binary file not shown.
38876
bildPy/models/trained_lbph.yml
Normal file
38876
bildPy/models/trained_lbph.yml
Normal file
File diff suppressed because it is too large
Load Diff
@@ -4,70 +4,67 @@ import numpy as np
|
||||
import pickle
|
||||
|
||||
# --- KONFIGURATION ---
|
||||
# Da wir in 'src' sind, greifen wir auf die übergeordneten Ordner zu
|
||||
# Pfade zu den Daten- und Modellordnern
|
||||
RAW_DATA_PFAD = "../data_raw"
|
||||
MODEL_PFAD = "../models"
|
||||
# yml für biometrische Daten
|
||||
# Datei für die trainierten biometrischen Daten
|
||||
MODEL_FILE = os.path.join(MODEL_PFAD, "trained_lbph.yml")
|
||||
# Mapping der IDs aus den Bio-Daten zu echten Personennamen
|
||||
# Datei für das Mapping von IDs zu Personennamen
|
||||
NAMES_FILE = os.path.join(MODEL_PFAD, "names.pkl")
|
||||
|
||||
# Gesicht-Detektor (Haar Cascade) initialisieren
|
||||
# Initialisierung des Haar-Cascade-Detektors für die Gesichtserkennung
|
||||
face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')
|
||||
|
||||
# LBPH Recognizer initialisieren
|
||||
# Initialisierung des LBPH-Recognizers [cite: 8]
|
||||
recognizer = cv2.face.LBPHFaceRecognizer_create()
|
||||
|
||||
|
||||
# Hilfsfunktion: Erstellt Ordner, falls sie nicht existieren
|
||||
def create_directory_if_not_exists(directory):
|
||||
"""Erstellt den Zielordner, falls dieser nicht existiert."""
|
||||
if not os.path.exists(directory):
|
||||
os.makedirs(directory)
|
||||
|
||||
|
||||
# Funktion: Trainiert das Modell
|
||||
def train_model():
|
||||
print("\n--- Training hat angefangen ---")
|
||||
"""Lädt Bilder, extrahiert Gesichter und trainiert das LBPH-Modell."""
|
||||
print("\n--- Training wird gestartet ---")
|
||||
faces = []
|
||||
ids = []
|
||||
names_map = {}
|
||||
current_id = 0
|
||||
|
||||
# Überprüft, ob der Daten-Ordner existiert
|
||||
if not os.path.exists(RAW_DATA_PFAD):
|
||||
print(f"Fehler: Verzeichnis '{RAW_DATA_PFAD}' nicht gefunden.")
|
||||
print(f"Fehler: Ordner '{RAW_DATA_PFAD}' nicht gefunden.")
|
||||
return
|
||||
|
||||
# Geht durch jeden Ordner in data_raw (z.B. diddy, kirk, etc.)
|
||||
# Durchläuft alle Personen-Ordner in data_raw [cite: 31]
|
||||
for person_name in os.listdir(RAW_DATA_PFAD):
|
||||
person_path = os.path.join(RAW_DATA_PFAD, person_name)
|
||||
|
||||
# Überspringt alles, was kein Ordner ist (z.B. .DS_Store oder .txt Dateien)
|
||||
if not os.path.isdir(person_path):
|
||||
continue
|
||||
|
||||
names_map[current_id] = person_name
|
||||
print(f"Verarbeite ID {current_id}: {person_name}")
|
||||
print(f"Verarbeite Person: {person_name} (ID: {current_id})")
|
||||
|
||||
# Geht durch jedes Bild im Ordner der jeweiligen Person
|
||||
for image_name in os.listdir(person_path):
|
||||
# Überspringt unsichtbare Dateien, die mit '.' starten
|
||||
if image_name.startswith("."):
|
||||
continue
|
||||
|
||||
image_path = os.path.join(person_path, image_name)
|
||||
|
||||
# Lädt das Bild und konvertiert es in Graustufen (Grayscale)
|
||||
img = cv2.imread(image_path)
|
||||
|
||||
if img is None:
|
||||
continue
|
||||
|
||||
# Konvertierung in Graustufen für die LBP-Extraktion [cite: 36]
|
||||
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
|
||||
|
||||
# Detektiert Gesichter im Bild
|
||||
# Gesichter im Bild erkennen
|
||||
faces_rects = face_cascade.detectMultiScale(gray, scaleFactor=1.2, minNeighbors=5)
|
||||
|
||||
for (x, y, w, h) in faces_rects:
|
||||
# Region of Interest (ROI) - das gefundene Gesicht ausschneiden
|
||||
# Gesichtsbereich (ROI) ausschneiden
|
||||
roi = gray[y:y + h, x:x + w]
|
||||
faces.append(roi)
|
||||
ids.append(current_id)
|
||||
@@ -75,14 +72,14 @@ def train_model():
|
||||
current_id += 1
|
||||
|
||||
if len(faces) == 0:
|
||||
print("Keine Gesichter gefunden. Bitte prüfe den 'data_raw' Ordner.")
|
||||
print("Fehler: Keine Gesichter im 'data_raw' Ordner gefunden.")
|
||||
return
|
||||
|
||||
# Trainiert das LBPH Modell
|
||||
print(f"\nTraining mit {len(faces)} Gesichtsproben...")
|
||||
# Modell mit den gesammelten Gesichtern trainieren
|
||||
print(f"Training mit {len(faces)} Gesichtsproben läuft...")
|
||||
recognizer.train(faces, np.array(ids))
|
||||
|
||||
# Speichert das Modell und die Namensliste
|
||||
# Modell und Namenszuordnung speichern
|
||||
create_directory_if_not_exists(MODEL_PFAD)
|
||||
recognizer.write(MODEL_FILE)
|
||||
with open(NAMES_FILE, 'wb') as f:
|
||||
@@ -91,12 +88,12 @@ def train_model():
|
||||
print(f"Erfolg! Modell gespeichert unter: {MODEL_FILE}")
|
||||
|
||||
|
||||
# Funktion: Erkennt Gesichter in Echtzeit (Webcam)
|
||||
def recognize_faces():
|
||||
print("\n--- Gesichtserkennung gestartet ---")
|
||||
"""Startet die Live-Erkennung über die Webcam."""
|
||||
print("\n--- Live-Erkennung gestartet ---")
|
||||
|
||||
if not os.path.exists(MODEL_FILE) or not os.path.exists(NAMES_FILE):
|
||||
print("Fehler: Modell nicht gefunden. Bitte zuerst Option 1 (Training) ausführen.")
|
||||
print("Fehler: Kein trainiertes Modell gefunden. Bitte zuerst Option 1 wählen.")
|
||||
return
|
||||
|
||||
# Modell und Namen laden
|
||||
@@ -104,8 +101,9 @@ def recognize_faces():
|
||||
with open(NAMES_FILE, 'rb') as f:
|
||||
names_map = pickle.load(f)
|
||||
|
||||
# Webcam-Stream öffnen
|
||||
cap = cv2.VideoCapture(0)
|
||||
print("Drücke 'q', um das Fenster zu schließen.")
|
||||
print("Info: Drücke 'q', um die Erkennung zu beenden.")
|
||||
|
||||
while True:
|
||||
ret, frame = cap.read()
|
||||
@@ -117,23 +115,27 @@ def recognize_faces():
|
||||
|
||||
for (x, y, w, h) in faces_rects:
|
||||
roi_gray = gray[y:y + h, x:x + w]
|
||||
|
||||
# Vorhersage treffen (ID und Confidence-Wert) [cite: 48, 49]
|
||||
# Hinweis: Ein niedrigerer Confidence-Wert bedeutet eine höhere Genauigkeit bei LBPH.
|
||||
id_, confidence = recognizer.predict(roi_gray)
|
||||
|
||||
# Bei LBPH gilt: Niedrigerer Wert = Bessere Übereinstimmung
|
||||
if confidence < 85:
|
||||
if confidence < 85: # Schwellenwert für die Erkennung [cite: 49]
|
||||
name = names_map[id_]
|
||||
conf_text = f"{round(100 - confidence)}%"
|
||||
prozent = f"{round(100 - confidence)}%"
|
||||
else:
|
||||
name = "Unbekannt"
|
||||
conf_text = f"{round(100 - confidence)}%"
|
||||
prozent = f"{round(100 - confidence)}%"
|
||||
|
||||
# Rechteck und Text zeichnen
|
||||
# Farbe festlegen: Grün für bekannt, Rot für unbekannt
|
||||
color = (0, 255, 0) if name != "Unbekannt" else (0, 0, 255)
|
||||
cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
|
||||
cv2.putText(frame, name, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, color, 2)
|
||||
cv2.putText(frame, conf_text, (x, y + h + 30), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (255, 255, 0), 1)
|
||||
|
||||
cv2.imshow("LBPH Gesichtserkennung Projekt", frame)
|
||||
# Rahmen und Text im Bild einblenden
|
||||
cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
|
||||
cv2.putText(frame, f"{name} ({prozent})", (x, y - 10),
|
||||
cv2.FONT_HERSHEY_SIMPLEX, 0.8, color, 2)
|
||||
|
||||
cv2.imshow("Klassenprojekt - LBPH Gesichtserkennung", frame)
|
||||
|
||||
if cv2.waitKey(1) & 0xFF == ord('q'):
|
||||
break
|
||||
@@ -142,12 +144,11 @@ def recognize_faces():
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
|
||||
# Hauptmenü Steuerung
|
||||
if __name__ == "__main__":
|
||||
while True:
|
||||
print("\n=== KLASSENPROJEKT MENÜ ===")
|
||||
print("\n=== LBPH GESICHTSERKENNUNG MENÜ ===")
|
||||
print("1. Modell trainieren")
|
||||
print("2. Erkennung starten (Webcam)")
|
||||
print("2. Live-Erkennung starten (Webcam)")
|
||||
print("3. Beenden")
|
||||
|
||||
wahl = input("Wähle eine Option (1-3): ")
|
||||
@@ -157,7 +158,7 @@ if __name__ == "__main__":
|
||||
elif wahl == '2':
|
||||
recognize_faces()
|
||||
elif wahl == '3':
|
||||
print("Programm wird beendet.")
|
||||
print("Programm beendet.")
|
||||
break
|
||||
else:
|
||||
print("Ungültige Eingabe.")
|
||||
Reference in New Issue
Block a user