Wpis z mikrobloga

@MaszynaTrurla: możesz zrobić pruning i usunąć wagi z węzłów o najmniejszym znaczeniu. To jakby efekt zapominania części informacji. Celem pruningu jest zmniejszenie rozmiarów sieci neuronowej z zachowaniem jej dokładności.
@MaszynaTrurla: Pewnie chodzi Ci o uczenie sieci nowych zadań tak aby te stare wciąż były zapamiętane. Przejrzyj sobie terminy: learning without forgetting, incremental learning, curriculum learning i może też meta learning. Jednak takie podejście służące maksymalizacji generalizacji jest raczej rzadko spotykane. Zazwyczaj po prostu uczy się wszechstronny model na całym zestawie docelowych tasków i nie ma wtedy mowy o zapominaniu a finalnie model i tak jest równoważny.