In diesem Fall würde mich Mal interessieren wie die Situation in Sprachen aussieht die keine (bis ganz wenige) gegenderten Nomen haben bspw. Englisch.
Ganz spannend wird es dann, wenn das Sprachmodell in Englisch trainiert wurde und dann anschließend nur ins Deutsche übersetzt wird.
Flip Flop Gender Auswahl :X
ja, man sollte da Finetuning machen um das zu ändern. sollte nicht allzu schwer sein afaik.
Kommt denke ich Mal stark auf die Trainingsdaten an. Wenn selbst der Mensch Probleme damit aus dem Wort oder Satz das Gender herauszulesen, halte ich es um so unwahrscheinlicher das ein Algorithmus das korrekt interpretieren kann.
Genau Finetuning ist die Lösung. Genauso wie beim Thema Diversity, wo dann dunkelhäutige Afrikaner und Asiaten bei generierten Bildern zu Nazis auftauchen. Macht man dann ein Finetuning. Und noch ne Extraregel bei Rittern im Mittelalter. Und bei Cowboys im Wilden Westen. Wobei da gab‘s ja auch den ein oder anderen dunkelhäutigen Exsklaven.
Du merkst es oder?