Snippets

malte flender Sentiment Analysis

Created by malte flender last modified
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
# coding=utf-8

# Copyright (c) 2017 Malte Flender, Carsten Gips and Christian Carsten Sander
#
# Permission is hereby granted, free of charge, to any person obtaining a copy of this 
# software and associated documentation files (the "Software"), to deal in the Software 
# without restriction, including without limitation the rights to use, copy, modify, merge, 
# publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons 
# to whom the Software is furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in all copies or 
# substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, 
# INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR 
# PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE 
# FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
# OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER 
# DEALINGS IN THE SOFTWARE.

# Python: Version 2.7.13
# NLTK: Version 3.0.3
# scikit-learn: Version 0.18

import nltk 
import sys
import collections
import gc
import time

from nltk.corpus import BracketParseCorpusReader
from nltk.corpus import stopwords
from nltk.classify.scikitlearn import SklearnClassifier

from multiprocessing import Pool

from sklearn import svm
from sklearn import model_selection
from sklearn import naive_bayes

# @ the moment not in use.
# from nltk import word_tokenize

# The Path to the corpus files and the filenames.
corpus_root_path = "/path/to/the/corpus/SentimentDataset/Data/"
file_pattern_names = ["de_sentiment.tsv", "de_sentiment_agree2.tsv", "de_sentiment_agree3.tsv"]

# To cope with the German umlauts.
reload(sys)
sys.setdefaultencoding("utf8")

stpwrds = stopwords.words("german")  # Use the German stopwords.

# We added some additional stopwords.
stpwrds.extend([',', '.', '(', ')', '!', ';', '-', ':', '...',
                "''", "'", "``", '~http', '?', '@', '#', '/',
                '&', '--', '[', ']', '=', '||', '+', '_', '..',
                '%', '|', '~', 'http'])

# Use the German version of the snowball stemmer.
stemmer = nltk.stem.SnowballStemmer("german")

NUM_MOST_COMMON_WORDS = 2000  # The number of the most common n-grams to be used.
NUM_FOLDS = 10  # The number of folds used for the crossvalidation

# Generate from min- to max-grams, e.g. uni- and bi-grams.
MIN_N_GRAM = 1  # The starting point of the n-gram generation, e.g. 1 -> unigram.
MAX_N_GRAM = 2  # The end point of the n-gram generation, e.g. 2 -> bigram.

MAXENT_MAX_ITER = 20  # The max number of iterations the max entropy classifier performs.

SHUFFLE = True  # If True the features will be shuffled before classification.
SEED = 4711  # The seed used in the shuffle prior to the classification.

CORES = 8 # The number of logical CPU-cores.

# Open the file with the given ID and return it.
def open_corpus(file_id):
    reader = BracketParseCorpusReader(corpus_root_path, file_pattern_names)
    file_content = reader.raw(fileids=reader.fileids()[file_id]).splitlines()
    return file_content

# Builds the sparse feature vector for a single Tweet from the Tweet,
#  the sentiment and all words from the corpus.
# The tweet contains of a list where the first part is the list of n-grams and
#  the second or last part is the given sentiment.
# The returning vector contains mostly n-grams that are not in the Tweet so most of it will be False.
def feature_extractor_sparse(tweet, all_words_from_the_corpus):
    sentiment = tweet[-1]
    dictinary = {}
    for word in all_words_from_the_corpus:
        dictinary[word] = (word in tweet[0])
    return (dictinary,) + (sentiment,)

# Builds the dense feature vector for a single Tweet from the Tweet and the sentiment.
# The returning vector contains only the n-grams from the given Tweet.
def feature_extractor_dense(n_grams, sentiment):
    dictinary = {}
    for n_gram in n_grams:
        dictinary.update({n_gram : True})
    return (dictinary,) + (sentiment,)

# Generate the from min_len to max_len grams, e.g. uni- and bi-grams.
def everygrams(sequence, min_len=1, max_len=-1):
    if max_len == -1:
        max_len = len(sequence)
    for n in range(min_len, max_len + 1):
        for ng in nltk.ngrams(sequence, n):
            yield ng

# Creates the train and test set from the corpus.
def generate_sets_sparse(file_id):
    features = []
    all_words = []
    tweets = []
    tweet_ID_last = ""

    for line in open_corpus(file_id):
        ignore = False
        parts_of_the_table = line.split("\t")
        
        if len(parts_of_the_table) == 4:  # some lines from the corpus are broken and lead to a fourth class. So only perform on working lines.
            sentiment = parts_of_the_table[0]  # split into columns.
            tweet_ID = parts_of_the_table[2]  # save the sentiment.
            
            if (tweet_ID == tweet_ID_last) and (tweets[-1][-1] == sentiment):
                ignore = True  # In the first set the sentiments are duplicate, so remove them.
                               # In the other files it woun'd change a bit.
            tweet_ID_last = tweet_ID
            
            if (sentiment != "na") and not ignore:
                tokens = nltk.tokenize.WordPunctTokenizer().tokenize(parts_of_the_table[-1].lower())  # Tokenize the feature and set it to lowercase.
                # tokens = nltk.word_tokenize(parts_of_the_table[-1].lower()) # Alternative tokenizer, worse performance.
                small_tokens = [i for i in tokens if i not in stpwrds]  # Remove all stopwords and additional stopwords.
                stem_tokens = [stemmer.stem(i) for i in small_tokens]  # Stemming the feature optional step.
                n_grams = everygrams(stem_tokens, MIN_N_GRAM, MAX_N_GRAM)  # Generate the n-grams.
                
                tmp_tweet_words = []
                for n_gram in n_grams:
                    tmp_tweet_words.append(n_gram)
                    if n_gram not in all_words:
                        all_words.append(n_gram)  # Append to the list with all words.

                tweets.append([tmp_tweet_words, sentiment])  # Generate a list of the feature and the sentiment.
            
    f_dist = list(nltk.FreqDist(all_words))[:NUM_MOST_COMMON_WORDS]  # Use only the k most common n-grams.
    tweets.pop(0)  # Delete the first line since it contains the header.
    
    for tweet in tweets:  # Generate the feature vector for every feature.
        for n_gram in tweet[0]:
            if n_gram not in f_dist:  # Shrink the soon to be feature vector to the k most common n-grams.
                tweet[0].remove(n_gram)
        feature = feature_extractor_sparse(tweet, f_dist)
        features.append(feature)

    return features

# Creates the train and test set from the corpus.
def generate_sets_dense(file_id):
    features = []
    tweet_ID_last = ""
    
    for line in open_corpus(file_id):
        ignore = False
        parts_of_the_table = line.split("\t")
        if len(parts_of_the_table) == 4:
            sentiment = parts_of_the_table[0]
            tweet_ID = parts_of_the_table[2]
            
            if (tweet_ID == tweet_ID_last) and (features[-1][-1] == sentiment):
                ignore = True
            
            tweet_ID_last = tweet_ID
            
            if (sentiment != "na") and not ignore:
                tokens = nltk.tokenize.WordPunctTokenizer().tokenize(parts_of_the_table[-1].lower())
                small_tokens = [i for i in tokens if i not in stpwrds]
                stem_tokens = [stemmer.stem(i) for i in small_tokens]
                n_grams = everygrams(stem_tokens, MIN_N_GRAM, MAX_N_GRAM)
                feature = feature_extractor_dense(n_grams, sentiment)
                features.append(feature)
            
    features.pop(0)
    return features

# Generate some statistics from the classification
def get_stats_cross(train_set, test_set, classifier, out_list):
    ref_set = collections.defaultdict(set)
    test_set_new = collections.defaultdict(set)
 
    for i, (feature_vector, label) in enumerate(test_set):
        ref_set[label].add(i)
        observed = classifier.classify(feature_vector)
        test_set_new[observed].add(i)
        
# Print wrong labeled occurrences:
#        if observed != label:
#            print(str(observed) + ":\t" + str(label))

    out_list[0] = out_list[0] + float(len(train_set) or 0.0)
    out_list[1] = out_list[1] + float(len(test_set) or 0.0)
    out_list[2] = out_list[2] + float(nltk.classify.accuracy(classifier, test_set) or 0.0)

    out_list[3] = out_list[3] + float(nltk.metrics.precision(ref_set["positive"], test_set_new["positive"]) or 0.0)
    out_list[4] = out_list[4] + float(nltk.metrics.recall(ref_set["positive"], test_set_new["positive"]) or 0.0)
    out_list[5] = out_list[5] + float(nltk.metrics.f_measure(ref_set["positive"], test_set_new["positive"]) or 0.0)

    out_list[6] = out_list[6] + float(nltk.metrics.precision(ref_set["negative"], test_set_new["negative"]) or 0.0)
    out_list[7] = out_list[7] + float(nltk.metrics.recall(ref_set["negative"], test_set_new["negative"]) or 0.0)
    out_list[8] = out_list[8] + float(nltk.metrics.f_measure(ref_set["negative"], test_set_new["negative"]) or 0.0)

    out_list[9] = out_list[9] + float(nltk.metrics.precision(ref_set["neutral"], test_set_new["neutral"]) or 0.0)
    out_list[10] = out_list[10] + float(nltk.metrics.recall(ref_set["neutral"], test_set_new["neutral"]) or 0.0)
    out_list[11] = out_list[11] + float(nltk.metrics.f_measure(ref_set["neutral"], test_set_new["neutral"]) or 0.0)

# Print the generated statistics to stdout
def print_stats(txt, results):
    out = txt + "\n"
    out += "Num Train: " + str(results[0] / NUM_FOLDS) + "\n"
    out += "Num Test: " + str(results[1] / NUM_FOLDS) + "\n"
    out += "Accuracy: " + str(results[2] / NUM_FOLDS) + "\n"
    out += "\n"
    out += "Time used: " + str(time.time() - start_time) + "\n"
    out += "\n"
    out += "positive precision: " + str(results[3] / NUM_FOLDS) + "\n"
    out += "positive recall:    " + str(results[4] / NUM_FOLDS) + "\n"
    out += "positive F-measure: " + str(results[5] / NUM_FOLDS) + "\n"
    out += "\n"
    out += "negative precision: " + str(results[6] / NUM_FOLDS) + "\n"
    out += "negative recall:    " + str(results[7] / NUM_FOLDS) + "\n"
    out += "negative F-measure: " + str(results[8] / NUM_FOLDS) + "\n"
    out += "\n"
    out += "neutral precision: " + str(results[9] / NUM_FOLDS) + "\n"
    out += "neutral recall:    " + str(results[10] / NUM_FOLDS) + "\n"
    out += "neutral F-measure: " + str(results[11] / NUM_FOLDS) + "\n"
    out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
    print(out)

# The general classification process.
# The concrete algorithm will be provided external
def classify(content):
    
    # To use the map function only one argument can be passed, so it needs to be splitted in its parts.
    classifier_blank = content[0] # The encapsulated train function of the actual classifier.
    corpus = content[1]
    txt = content[2]
    
    results = [0.0] * 12  # The amount of the statistic values

    cv = model_selection.KFold(n_splits=NUM_FOLDS, shuffle=SHUFFLE, random_state=SEED)
    
    for train_index, test_index in cv.split(corpus):
 
        train_values = []
        test_values = []
        
        for i in train_index:
            train_values.append(corpus[i])
        
        for i in test_index:
            test_values.append(corpus[i])
        
        classifier = classifier_blank(train_values)
        
        get_stats_cross(train_values, test_values, classifier, results)
    
    print_stats(txt, results)

# In order to get the baseline performance for the other classifiers
#  this function computes a sort of ZeroR-classification for all sentiments.
def classify_ZeroR(content):
    corpus = content[1]
    txt = content[2]
    
    neutral = 0
    positive = 0
    negative = 0
    
    for i in corpus:
        if i[1] == "neutral":
            neutral += 1
        elif i[1] == "positive":
            positive += 1
        elif i[1] == "negative":
            negative += 1
        else:
            print("ERROR: classify_ZeroR")
            return
 
    out = txt + "\n"
    out += "Amount neutral: " + str(float(neutral) / len(corpus)) + "\n"
    out += "Amount positive:  " + str(float(positive) / len(corpus)) + "\n"
    out += "Amount negative: " + str(float(negative) / len(corpus)) + "\n"
    out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––"
    print(out)

# To test the distribution of the classes for every fold
def classify_distribution_test(content):
    corpus = content[1]
    txt = content[2]

    cv = model_selection.KFold(n_splits=NUM_FOLDS, shuffle=SHUFFLE, random_state=SEED)
    
    for train_index, test_index in cv.split(corpus):
 
        train_values = []
        test_values = []
        
        neutral_train = 0
        positive_train = 0
        negative_train = 0
        
        neutral_test = 0
        positive_test = 0
        negative_test = 0
        
        for i in train_index:
            train_values.append(corpus[i])
        
        for i in test_index:
            test_values.append(corpus[i])

        for i in train_values:
            if i[1] == "neutral":
                neutral_train += 1
            elif i[1] == "positive":
                positive_train += 1
            elif i[1] == "negative":
                negative_train += 1
            else:
                print("ERROR: classify_classify_distribution_test train_values")
                return

        for i in test_values:
            if i[1] == "neutral":
                neutral_test += 1
            elif i[1] == "positive":
                positive_test += 1
            elif i[1] == "negative":
                negative_test += 1
            else:
                print("ERROR: classify_classify_distribution_test test_values")
                return

        out = "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
        out += txt + "\n"
        out += "Amount neutral train: " + str(float(neutral_train) / len(train_values)) + "\n"
        out += "Amount positive train:  " + str(float(positive_train) / len(train_values)) + "\n"
        out += "Amount negative train: " + str(float(negative_train) / len(train_values)) + "\n"
        out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
        out += "Amount neutral test: " + str(float(neutral_test) / len(test_values)) + "\n"
        out += "Amount positive test:  " + str(float(positive_test) / len(test_values)) + "\n"
        out += "Amount negative test: " + str(float(negative_test) / len(test_values)) + "\n"
        out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
        
        print(out)

# The encapsulated train function of the Naive Bayes classifier
def NB_classifier(train_set):
    classifier = SklearnClassifier(naive_bayes.MultinomialNB(
        alpha = 1.0,
        fit_prior = True
    ))
    classifier.train(train_set)
    
    return classifier

# The encapsulated train function of the decision tree classifier
def DT_classifier(train_set):
    classifier = nltk.DecisionTreeClassifier.train(train_set)
    return classifier

# The encapsulated train function of the maximum entropy classifier
def ME_classifier(train_set):

    classifier = nltk.MaxentClassifier.train(
        train_set, 
        max_iter = MAXENT_MAX_ITER,
        trace = 0,
        algorithm = 'MEGAM'
    )
    return classifier

# The encapsulated train function of the support vector machine classifier
def SVM_classifier(train_set):
    
# Alternative SVM wit slightly worse performance
#     classifier = SklearnClassifier(svm.SVC(
#         C = 100000.0, 
#         kernel = 'linear', 
#         degree = 3, 
#         gamma = 'auto', 
#         coef0 = 0.0, 
#         shrinking = True, 
#         probability = False, 
#         tol = 1.0, 
#         cache_size = 200, 
#         class_weight = None, 
#         verbose = False, 
#         max_iter = -1, 
#         decision_function_shape = None, 
#         random_state = None
#     ))

    classifier = SklearnClassifier(svm.LinearSVC(
        C = 1.0,
        class_weight = None,
        dual = True,
        fit_intercept = True,
        intercept_scaling = 0.1,
        loss = 'squared_hinge',
        max_iter = 1000,
        multi_class = 'ovr',
        penalty = 'l2',
        random_state = None,
        tol = 1.0,
        verbose = 0
    ))
    
    classifier.train(train_set)
    return classifier

# Get the sparse and dense features and perform the classification with multicore support.
# To save some RAM one could perform the sparse and dense features in two separate runs.

start_time = time.time()
de_sentiment_sparse = generate_sets_sparse(0)
print("de_sentiment_sparse generation: " + str(time.time()-start_time))

start_time = time.time()
de_sentiment_dense = generate_sets_dense(0)
print("de_sentiment_dense generation: " + str(time.time()-start_time))

start_time = time.time()
de_sentiment_agree2_sparse = generate_sets_sparse(1)
print("de_sentiment_agree2_sparse generation: " + str(time.time()-start_time))

start_time = time.time()
de_sentiment_agree2_dense = generate_sets_dense(1)
print("de_sentiment_agree2_dense generation: " + str(time.time()-start_time))

start_time = time.time()
de_sentiment_agree3_sparse = generate_sets_sparse(2)
print("de_sentiment_agree3_sparse generation: " + str(time.time() - start_time))

start_time = time.time()
de_sentiment_agree3_dense = generate_sets_dense(2)
print("de_sentiment_agree3_dense generation: " + str(time.time() - start_time) + "\n")

gc.collect()  # Trigger the garbage collector to free a little RAM.
pool = Pool(CORES)

start_time = time.time()

pool.map_async(classify, [
    (NB_classifier, de_sentiment_sparse, "Naive sparse: de_sentiment.tsv",),
    (NB_classifier, de_sentiment_agree2_sparse, "Naive sparse: de_sentiment_agree2.tsv",),
    (NB_classifier, de_sentiment_agree3_sparse, "Naive sparse: de_sentiment_agree3.tsv",),
    (NB_classifier, de_sentiment_dense, "Naive dense: de_sentiment.tsv",),
    (NB_classifier, de_sentiment_agree2_dense, "Naive dense: de_sentiment_agree2.tsv",),
    (NB_classifier, de_sentiment_agree3_dense, "Naive dense: de_sentiment_agree3.tsv",),
    (SVM_classifier, de_sentiment_sparse, "SVM sparse: de_sentiment.tsv",),
    (SVM_classifier, de_sentiment_agree2_sparse, "SVM sparse: de_sentiment_agree2.tsv",),
    (SVM_classifier, de_sentiment_agree3_sparse, "SVM sparse: de_sentiment_agree3.tsv",),
    (SVM_classifier, de_sentiment_dense, "SVM dense: de_sentiment.tsv",),
    (SVM_classifier, de_sentiment_agree2_dense, "SVM dense: de_sentiment_agree2.tsv",),
    (SVM_classifier, de_sentiment_agree3_dense, "SVM dense: de_sentiment_agree3.tsv",),
    (ME_classifier, de_sentiment_sparse, "MaxEnt sparse: de_sentiment.tsv",),
    (ME_classifier, de_sentiment_agree2_sparse, "MaxEnt sparse: de_sentiment_agree2.tsv",),
    (ME_classifier, de_sentiment_agree3_sparse, "MaxEnt sparse: de_sentiment_agree3.tsv",),
    (ME_classifier, de_sentiment_dense, "MaxEnt dense: de_sentiment.tsv",),
    (ME_classifier, de_sentiment_agree2_dense, "MaxEnt dense: de_sentiment_agree2.tsv",),
    (ME_classifier, de_sentiment_agree3_dense, "MaxEnt dense: de_sentiment_agree3.tsv",),
    (DT_classifier, de_sentiment_sparse, "Tree sparse: de_sentiment.tsv",),
    (DT_classifier, de_sentiment_agree2_sparse, "Tree sparse: de_sentiment_agree2.tsv",),
    (DT_classifier, de_sentiment_agree3_sparse, "Tree sparse: de_sentiment_agree3.tsv",),
    (DT_classifier, de_sentiment_dense, "Tree dense: de_sentiment.tsv",),
    (DT_classifier, de_sentiment_agree2_dense, "Tree dense: de_sentiment_agree2.tsv",),
    (DT_classifier, de_sentiment_agree3_dense, "Tree dense: de_sentiment_agree3.tsv",)
])

pool.close()
pool.join()

Comments (3)

  1. Eylül Online

    Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri

  2. Linda Melson

    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    metin2 pvp serverler
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna
    okey oyna

    Damar Romeyelle Hamlin, 24 Mart 1998 doğumlu, Amerikan futbolunda Buffalo Bills takımının güvenlik oyuncusudur. Üniversite kariyerini Pittsburgh Üniversitesi’nde oynayarak tamamladı ve 2021 NFL Draftı’nın altıncı turunda Bills tarafından seçildi. İşte Hamlin hakkında daha fazla bilgi:

    Hamlin, 2023 yılında NFLPA Alan Page Topluluk ÖdülüNFL Yılın Geri Dönen Oyuncusu Ödülü ve George Halas Ödülü gibi önemli ödüller kazandı. Ayrıca 2020’de All-ACC İkinci Takımı’na seçildi.

    Jeremy Lee Renner, 7 Ocak 1971 doğumlu, Amerikalı bir aktördür. Kariyerine Dahmer (2002) ve Neo Ned (2005) gibi bağımsız filmlerde rol alarak başladı. Daha sonra S.W.A.T. (2003) ve 28 Weeks Later (2007) gibi büyük yapımlarda yardımcı rollerde yer aldı. Renner, The Hurt Locker (2009) filmindeki asker performansıyla En İyi Erkek Oyuncu dalında Akademi Ödülü’ne aday gösterildi ve The Town (2010) filminde hırçın bir soyguncuyu canlandırarak En İyi Yardımcı Erkek Oyuncu dalında bir kez daha aday gösterildi.

    Ayrıca Renner, Marvel Sinematik Evreni’nde Clint Barton / Hawkeye karakterini canlandırdı. Bu rolü, The Avengers (2012) filminde ve Disney+ mini dizisi Hawkeye (2021)'da üstlendi. Ayrıca Mission: Impossible – Ghost Protocol (2011)The Bourne Legacy (2012)Hansel & Gretel: Witch Hunters (2013) ve Mission: Impossible – Rogue Nation (2015) gibi aksiyon filmlerinde ve American Hustle (2013)Arrival (2016) ve Wind River (2017) gibi dramalarda da yer aldı.

    Renner, 2021’den bu yana Paramount+ suç gerilimi dizisi Mayor of Kingstown’da başrol oynuyor. Modesto, California’da doğan Renner, İrlandalı ve Alman kökenlidir. Lise eğitimini Fred C. Beyer High School’da tamamladıktan sonra Modesto Junior College’da bilgisayar bilimi ve kriminoloji okudu. Ancak bir drama dersi alarak oyunculuğa yönelmeye karar verdi.

    Jeremy Renner, hem bağımsız yapımlarda hem de büyük stüdyo filmlerindeki başarılı kariyeriyle tanınan bir aktördür.

    Travis Michael Kelce, 5 Ekim 1989 doğumlu, Amerikan Ulusal Futbol Ligi (NFL) takımlarından Kansas City Chiefs’te oynayan bir Amerikan futbolu tight end’idir. 2013 NFL Draftı’nın üçüncü turunda Chiefs tarafından seçildi ve daha sonra takımıyla Super Bowl LIVLVII ve LVIII’i kazandı.

    Kelce, Cincinnati Bearcats üniversitesinde kolej futbolu oynadı. Kariyeri boyunca dokuz kez Pro Bowl seçildi ve dört kez birinci takım ve üç kez ikinci takım All-Pro seçildi. Aynı zamanda NFL tarihinde bir tight end olarak en fazla ve ardışık olarak yedi sezon boyunca 1.000 alım yapan oyuncu unvanını elinde bulunduruyor. 2020’de sadece 15 maçta oynamasına rağmen tek sezon içinde bir tight end olarak en fazla alım yapan oyuncu rekorunu kırdı ve 1.416 alım yaptı.

    2022 sezonunda Kelce, NFL tarihinde 10.000 alım yapan beşinci tight end oldu ve bu kilometre taşını NFL tarihinde en hızlı şekilde geçen tight end olarak kaydetti. Ayrıca NFL 2010’ların On Yıl Takımı’na seçildi. Dış saha etkinliklerinin ötesinde, Kelce, gerçeklik ve senaryolu televizyon programlarında ve reklamlarda da yer aldı. Ayrıca kardeşi Jason ile birlikte popüler kültürden futbola kadar birçok konuyu ele alan “New Heights” adlı bir podcast sunuyor.

    Travis Kelce, muhteşem atletizmi ve bölge kapsamını okuma yeteneği ile tanınan bir tight end olarak NFL tarihindeki en büyük oyunculardan biri olarak kabul ediliyor.

    Tucker Swanson McNear Carlson, 16 Mayıs 1969 doğumlu, Amerikalı bir muhafazakâr siyasi yorumcu ve yazardır. 2016’dan 2023’e kadar Fox News’de gecenin siyasi tartışma programı Tucker Carlson Tonight’ı sunmuştu. Fox News ile olan sözleşmesi sona erdikten sonra Tucker on X adlı bir programı sunmaktadır.

    Carlson, eski ABD Başkanı Donald Trump’ın bir savunucusu olarak bilinir ve “muhtemelen Trumpizmin en tanınmış taraftarı” olarak tanımlanmıştır. Ayrıca “sağ medyanın en etkili sesi” olarak kabul edilir. Medya kariyerine 1990’larda başlayan CarlsonThe Weekly Standard ve diğer yayınlar için yazdı. 2000-2005 yılları arasında CNN yorumcusu ve 2001-2005 yılları arasında ağın prime-time haber tartışma programı Crossfire’ın sunucusu olarak görev yaptı. 2005-2008 yılları arasında MSNBC’de gecenin programı Tucker’ı sundu. 2009’da Fox News için politik analist oldu ve kendi programını başlattı.

    Carlson, sağcı haber ve görüş web sitesi The Daily Caller’ın kurucu ortağı ve ilk baş editörü olarak da bilinir. Üç kitap yazdı: Politicians, Partisans, and Parasites (2003)Ship of Fools (2018) ve The Long Slide (2021). Beyaz şikayet politikalarının önde gelen seslerinden biri olarak tanınan Carlson, aşırı sağ fikirleri genel politika ve söyleme taşıma konusunda bilinir. Demografik değişim, COVID-19, 6 Ocak Amerika Birleşik Devletleri Kongre Baskını ve Ukrayna biyosilahları gibi konularda komplo teorilerini destekledi ve bu konularda yanıltıcı ifadelerde bulundu.

HTTPS SSH

You can clone a snippet to your computer for local editing. Learn more.