Només calen 250 documents maliciosos per introduir una vulnerabilitat que deixi una "porta del darrere" en un model de llenguatge d'IA, independentment de la mida del model o del volum de dades d'entrenament.
https://www.anthropic.com/research/small-samples-poison
-
Només calen 250 documents maliciosos per introduir una vulnerabilitat que deixi una "porta del darrere" en un model de llenguatge d'IA, independentment de la mida del model o del volum de dades d'entrenament.
-
@lalgorisme I és clar, els compendis gegantins que xuclaren de reddit, slashdot, 4chan i altres fòrums en línia no en tenen 250, potser 25,000 ... i el sarcasme i la ironia es perd també i contribueix al garbuix que es fan les LLMs.