Pragnę powitać na tagu nowego brata – @getin, który zdążył już nas przekonać, że nadaje się, aby Go namaścić olejkami i przyjąć w szeregi Bractwa. Podobnie jak my, uważa, że ksiądz Napierała nie ma żadnych zalet. Zna na pamięć wszystkie prawa napieralizmu! Interesuje się geopolityka i ceni sobie zdanie dr. Jacka Bartosiaka. Dla nas to oczywiście żaden problem, ponieważ nie ma tu zamordyzmu. Rozgość się!
@lukasgl: Next, we remove any URLs in the data. There is a good chance that email will have some URLs in it. We don’t need them for our further analysis as they do not add any value to the results.
@Zayatzz: keras.preprocessing.text.Tokenizer is a utility function that tokenizes a text into tokens while keeping only the words that occur the most in the text corpus. When we tokenize the text, we end up with a massive dictionary of words, and they won’t all be essential. We can set ‘max_features’ to select the top frequent words that we want to consider.
@Zayatzz: Tylko Marzenki od @getin mi żal. Mógłby babie nie robić nadziei. To złe, nawet jak napieralczyka. Pjoter powiedział jasno. Sorry mała, kanał jest dla mnie ważniejszy więc się wyprowadzam. Tu tego zabrakło.
@Goatlord: A movie consists of a sequence of scenes. When we watch a particular scene, we don’t try to understand it in isolation, but rather in connection with previous scenes. In a similar fashion, a machine learning model has to understand the text by utilizing already-learned text, just like in a human neural network.
In traditional machine learning models, we cannot store a model’s previous stages. However, Recurrent Neural Networks (commonly
@Zayatzz: An RNN has a repeating module that takes input from the previous stage and gives its output as input to the next stage. However, in RNNs we can only retain information from the most recent stage. To learn long-term dependencies, our network needs memorization power. Here’s where Long Short Term Memory Networks (LSTMs) come to the rescue.
LSTMs are a special case of RNNs, They have the same chain-like structure
Text data can be easily interpreted by humans. But for machines, reading and analyzing is a very complex task. To accomplish this task, we need to convert our text into a machine-understandable format.
Embedding is the process of converting formatted text data into numerical values/vectors which a machine can interpret.
@Goatlord: kolega ma całkiem sporo obserwowanych i obserwujących. Może byśmy się do nich odezwali i zapytali, czy też, jak on, cenią dr. Jacka Bartosiaka? Podzielilibyśmy się między ziomalami?
@Zayatzz: import tensorflow as tf from keras.layers import Dense,LSTM, Embedding, Dropout, Activation, Bidirectional#size of the output vector from each layer embeddingvectorlength = 32#Creating a sequential model model = tf.keras.Sequential()#Creating an embedding layer to vectorize model.add(Embedding(maxfeature, embeddingvectorlength, inputlength=maxlen))#Addding Bi-directional LSTM model.add(Bidirectional(tf.keras.layers.LSTM(64)))#Relu allows converging quickly and allows backpropagation model.add(Dense(16, activation='relu'))#Deep Learninng models can be overfit easily, to avoid this, we add randomization using drop out model.add(Dropout(0.1))#Adding
@getin: Tak mi świntusz mój królewiczu! W Tajlandii będziesz czytał mi dokumentację php po niemiecku! Już nie mogę się doczekać aż zrobię ci testy obciążeniowe i wydajnościowe w okrężnicy! @Zayatzz będzie trzymał nam kamerę misiu! Tylko homoseksualizm wszechpolski!
@Goatlord: history = model.fit(xtrainfeatures, trainy, batchsize=512, epochs=20, validationdata=(xtestfeatures, testy))ypredict = [1 if o>0.5 else 0 for o in model.predict(xtest_features)]
@Zayatzz: dzień dobry, @getin! Miło słyszeć, że z fana pana doktora Napierały stałeś się w tak krótkim czasie jednym z nas - katonacjonalistycznych wykopkowych zwyroli prowadzących z niehabilitowaną bestią wojnę ideologiczną. Życzę powodzenia w zachowaniu zdrowia psychicznego oraz sukcesów na froncie!
Zasnąłem na paczce merci i gdy otworzyłem oczy zastałem ten widok. Jak przywrócić touchpad do „kliku" sprzed czekoladowej katastrofy? Jeździłem szpilką wokół i wydłubywałem ale problem pozostał
Pragnę powitać na tagu nowego brata – @getin, który zdążył już nas przekonać, że nadaje się, aby Go namaścić olejkami i przyjąć w szeregi Bractwa. Podobnie jak my, uważa, że ksiądz Napierała nie ma żadnych zalet. Zna na pamięć wszystkie prawa napieralizmu! Interesuje się geopolityka i ceni sobie zdanie dr. Jacka Bartosiaka. Dla nas to oczywiście żaden problem, ponieważ nie ma tu zamordyzmu. Rozgość się!
def remove_hyperlink(word):
return re.sub(r"http\S+", "", word)
In traditional machine learning models, we cannot store a model’s previous stages. However, Recurrent Neural Networks (commonly
LSTMs are a special case of RNNs, They have the same chain-like structure
Text data can be easily interpreted by humans. But for machines, reading and analyzing is a very complex task. To accomplish this task, we need to convert our text into a machine-understandable format.
Embedding is the process of converting formatted text data into numerical values/vectors which a machine can interpret.
from keras.layers import Dense,LSTM, Embedding, Dropout, Activation, Bidirectional#size of the output vector from each layer
embeddingvectorlength = 32#Creating a sequential model
model = tf.keras.Sequential()#Creating an embedding layer to vectorize
model.add(Embedding(maxfeature, embeddingvectorlength, inputlength=maxlen))#Addding Bi-directional LSTM
model.add(Bidirectional(tf.keras.layers.LSTM(64)))#Relu allows converging quickly and allows backpropagation
model.add(Dense(16, activation='relu'))#Deep Learninng models can be overfit easily, to avoid this, we add randomization using drop out
model.add(Dropout(0.1))#Adding
Komentarz usunięty przez moderatora