Unser wissenschaftlicher Artikel „Repeated Knowledge Distillation with Confidence Masking to Mitigate Membership Inference Attacks” wurde zur Veröffentlichung auf der ACM AISec 2022 akzeptiert! In dem Artikel beschreiben wir einen neuen Ansatz zum Schutz von Modellen des Maschinellen Lernens vor sogenannten "Membership Inference Attacks". Konkret kombiniert unser Ansatz den bekannten Abwehrmechanismus namens "Knowledge Distillation" mit der Maskierung von Konfidenz-Punkten. Unser Ansatz ist wesentlich flexibler als existierende Abwehrmechanismen, da er ein Fine-Tuning der Parameter erlaubt und dadurch genutzt werden kann, um einen maßgeschneiderten Trade-off zwischen der Genauigkeit des Modells und der Abwehrperformanz gegen Membership Inference Angriffen zu erreichen.