Aktywne Wpisy
ŁO #!$%@? XDDD Na tiktoku właśnie p0luski mają trend i wstawiają głupkowate filmiki, że wolałyby spotkać w lesie niedźwiedzia niż mężczyznę xDDD no tak incel który boi się własnego cienia zrobi ci większą krzywdę niż 200 kilowe zwierze xDDDD ja piehdole kuhwaaa p0lki wszystko ma swoje granice XDDD p0luski że wy wstydu nie macie takiego guwna wrzucać do internetu XDDDDDDDDDDDD
#depresja #p0lka #przegryw #bekazlewactwa #bekazpodludzi #logikarozowychpaskow
#depresja #p0lka #przegryw #bekazlewactwa #bekazpodludzi #logikarozowychpaskow
cambiasso +128
#machinelearning
Cześć Mirki, czy ktoś z Was miał taką sytuację, że wyjście modelu zawsze odwzorowuje ten sam kształt krzywej? W żadnym wypadku nie udało mi się odwzorować tych "oscylacji" rzeczywistej wartości.
Model regresji liniowej, na wejściu dwie funkcje sinus (jako predytkory w modelu). Niezależnie od liczby epok, optymalizatora i wartości learningrate, aktywacji warstwy, liczby neuronów i wielkości zbioru danych.
Macie jakieś pomysły?
Wołam jeszcze Mirków spod tagu #python, ponieważ model utworzony w #keras.
model = Sequential()
model.add(Dense(3, input_dim=trainX_scaled.shape[1], activation='tanh'))
model.add(Dense(128, activation="tanh"))
model.add(Dense(1, activation="tanh"))
optimizer = tf.keras.optimizers.RMSprop(learning_rate=1e-5)
model.compile(loss='mae', optimizer=optimizer, metrics=['mae', 'mse'])
callback = tf.keras.callbacks.EarlyStopping(monitor=loss, patience=5)
model.fit(x=trainX_scaled, y=trainY_scaled, validation_data=(testX_scaled, testY_scaled),
epochs=100, batch_size=32, callbacks=[callback])
Wynik trenowania modelu: loss: 0.0075 - mae: 0.0075 - mse: 8.9934e-05 - valloss: 0.0075 - valmae: 0.0075 - val_mse: 9.0108e-05
@ProfesorBigos: próbowałem, z takim samym efektem