Snippets
Created by
malte flender
last modified
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 | # coding=utf-8
# Copyright (c) 2017 Malte Flender, Carsten Gips and Christian Carsten Sander
#
# Permission is hereby granted, free of charge, to any person obtaining a copy of this
# software and associated documentation files (the "Software"), to deal in the Software
# without restriction, including without limitation the rights to use, copy, modify, merge,
# publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons
# to whom the Software is furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in all copies or
# substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
# INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR
# PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE
# FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
# OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
# DEALINGS IN THE SOFTWARE.
# Python: Version 2.7.13
# NLTK: Version 3.0.3
# scikit-learn: Version 0.18
import nltk
import sys
import collections
import gc
import time
from nltk.corpus import BracketParseCorpusReader
from nltk.corpus import stopwords
from nltk.classify.scikitlearn import SklearnClassifier
from multiprocessing import Pool
from sklearn import svm
from sklearn import model_selection
from sklearn import naive_bayes
# @ the moment not in use.
# from nltk import word_tokenize
# The Path to the corpus files and the filenames.
corpus_root_path = "/path/to/the/corpus/SentimentDataset/Data/"
file_pattern_names = ["de_sentiment.tsv", "de_sentiment_agree2.tsv", "de_sentiment_agree3.tsv"]
# To cope with the German umlauts.
reload(sys)
sys.setdefaultencoding("utf8")
stpwrds = stopwords.words("german") # Use the German stopwords.
# We added some additional stopwords.
stpwrds.extend([',', '.', '(', ')', '!', ';', '-', ':', '...',
"''", "'", "``", '~http', '?', '@', '#', '/',
'&', '--', '[', ']', '=', '||', '+', '_', '..',
'%', '|', '~', 'http'])
# Use the German version of the snowball stemmer.
stemmer = nltk.stem.SnowballStemmer("german")
NUM_MOST_COMMON_WORDS = 2000 # The number of the most common n-grams to be used.
NUM_FOLDS = 10 # The number of folds used for the crossvalidation
# Generate from min- to max-grams, e.g. uni- and bi-grams.
MIN_N_GRAM = 1 # The starting point of the n-gram generation, e.g. 1 -> unigram.
MAX_N_GRAM = 2 # The end point of the n-gram generation, e.g. 2 -> bigram.
MAXENT_MAX_ITER = 20 # The max number of iterations the max entropy classifier performs.
SHUFFLE = True # If True the features will be shuffled before classification.
SEED = 4711 # The seed used in the shuffle prior to the classification.
CORES = 8 # The number of logical CPU-cores.
# Open the file with the given ID and return it.
def open_corpus(file_id):
reader = BracketParseCorpusReader(corpus_root_path, file_pattern_names)
file_content = reader.raw(fileids=reader.fileids()[file_id]).splitlines()
return file_content
# Builds the sparse feature vector for a single Tweet from the Tweet,
# the sentiment and all words from the corpus.
# The tweet contains of a list where the first part is the list of n-grams and
# the second or last part is the given sentiment.
# The returning vector contains mostly n-grams that are not in the Tweet so most of it will be False.
def feature_extractor_sparse(tweet, all_words_from_the_corpus):
sentiment = tweet[-1]
dictinary = {}
for word in all_words_from_the_corpus:
dictinary[word] = (word in tweet[0])
return (dictinary,) + (sentiment,)
# Builds the dense feature vector for a single Tweet from the Tweet and the sentiment.
# The returning vector contains only the n-grams from the given Tweet.
def feature_extractor_dense(n_grams, sentiment):
dictinary = {}
for n_gram in n_grams:
dictinary.update({n_gram : True})
return (dictinary,) + (sentiment,)
# Generate the from min_len to max_len grams, e.g. uni- and bi-grams.
def everygrams(sequence, min_len=1, max_len=-1):
if max_len == -1:
max_len = len(sequence)
for n in range(min_len, max_len + 1):
for ng in nltk.ngrams(sequence, n):
yield ng
# Creates the train and test set from the corpus.
def generate_sets_sparse(file_id):
features = []
all_words = []
tweets = []
tweet_ID_last = ""
for line in open_corpus(file_id):
ignore = False
parts_of_the_table = line.split("\t")
if len(parts_of_the_table) == 4: # some lines from the corpus are broken and lead to a fourth class. So only perform on working lines.
sentiment = parts_of_the_table[0] # split into columns.
tweet_ID = parts_of_the_table[2] # save the sentiment.
if (tweet_ID == tweet_ID_last) and (tweets[-1][-1] == sentiment):
ignore = True # In the first set the sentiments are duplicate, so remove them.
# In the other files it woun'd change a bit.
tweet_ID_last = tweet_ID
if (sentiment != "na") and not ignore:
tokens = nltk.tokenize.WordPunctTokenizer().tokenize(parts_of_the_table[-1].lower()) # Tokenize the feature and set it to lowercase.
# tokens = nltk.word_tokenize(parts_of_the_table[-1].lower()) # Alternative tokenizer, worse performance.
small_tokens = [i for i in tokens if i not in stpwrds] # Remove all stopwords and additional stopwords.
stem_tokens = [stemmer.stem(i) for i in small_tokens] # Stemming the feature optional step.
n_grams = everygrams(stem_tokens, MIN_N_GRAM, MAX_N_GRAM) # Generate the n-grams.
tmp_tweet_words = []
for n_gram in n_grams:
tmp_tweet_words.append(n_gram)
if n_gram not in all_words:
all_words.append(n_gram) # Append to the list with all words.
tweets.append([tmp_tweet_words, sentiment]) # Generate a list of the feature and the sentiment.
f_dist = list(nltk.FreqDist(all_words))[:NUM_MOST_COMMON_WORDS] # Use only the k most common n-grams.
tweets.pop(0) # Delete the first line since it contains the header.
for tweet in tweets: # Generate the feature vector for every feature.
for n_gram in tweet[0]:
if n_gram not in f_dist: # Shrink the soon to be feature vector to the k most common n-grams.
tweet[0].remove(n_gram)
feature = feature_extractor_sparse(tweet, f_dist)
features.append(feature)
return features
# Creates the train and test set from the corpus.
def generate_sets_dense(file_id):
features = []
tweet_ID_last = ""
for line in open_corpus(file_id):
ignore = False
parts_of_the_table = line.split("\t")
if len(parts_of_the_table) == 4:
sentiment = parts_of_the_table[0]
tweet_ID = parts_of_the_table[2]
if (tweet_ID == tweet_ID_last) and (features[-1][-1] == sentiment):
ignore = True
tweet_ID_last = tweet_ID
if (sentiment != "na") and not ignore:
tokens = nltk.tokenize.WordPunctTokenizer().tokenize(parts_of_the_table[-1].lower())
small_tokens = [i for i in tokens if i not in stpwrds]
stem_tokens = [stemmer.stem(i) for i in small_tokens]
n_grams = everygrams(stem_tokens, MIN_N_GRAM, MAX_N_GRAM)
feature = feature_extractor_dense(n_grams, sentiment)
features.append(feature)
features.pop(0)
return features
# Generate some statistics from the classification
def get_stats_cross(train_set, test_set, classifier, out_list):
ref_set = collections.defaultdict(set)
test_set_new = collections.defaultdict(set)
for i, (feature_vector, label) in enumerate(test_set):
ref_set[label].add(i)
observed = classifier.classify(feature_vector)
test_set_new[observed].add(i)
# Print wrong labeled occurrences:
# if observed != label:
# print(str(observed) + ":\t" + str(label))
out_list[0] = out_list[0] + float(len(train_set) or 0.0)
out_list[1] = out_list[1] + float(len(test_set) or 0.0)
out_list[2] = out_list[2] + float(nltk.classify.accuracy(classifier, test_set) or 0.0)
out_list[3] = out_list[3] + float(nltk.metrics.precision(ref_set["positive"], test_set_new["positive"]) or 0.0)
out_list[4] = out_list[4] + float(nltk.metrics.recall(ref_set["positive"], test_set_new["positive"]) or 0.0)
out_list[5] = out_list[5] + float(nltk.metrics.f_measure(ref_set["positive"], test_set_new["positive"]) or 0.0)
out_list[6] = out_list[6] + float(nltk.metrics.precision(ref_set["negative"], test_set_new["negative"]) or 0.0)
out_list[7] = out_list[7] + float(nltk.metrics.recall(ref_set["negative"], test_set_new["negative"]) or 0.0)
out_list[8] = out_list[8] + float(nltk.metrics.f_measure(ref_set["negative"], test_set_new["negative"]) or 0.0)
out_list[9] = out_list[9] + float(nltk.metrics.precision(ref_set["neutral"], test_set_new["neutral"]) or 0.0)
out_list[10] = out_list[10] + float(nltk.metrics.recall(ref_set["neutral"], test_set_new["neutral"]) or 0.0)
out_list[11] = out_list[11] + float(nltk.metrics.f_measure(ref_set["neutral"], test_set_new["neutral"]) or 0.0)
# Print the generated statistics to stdout
def print_stats(txt, results):
out = txt + "\n"
out += "Num Train: " + str(results[0] / NUM_FOLDS) + "\n"
out += "Num Test: " + str(results[1] / NUM_FOLDS) + "\n"
out += "Accuracy: " + str(results[2] / NUM_FOLDS) + "\n"
out += "\n"
out += "Time used: " + str(time.time() - start_time) + "\n"
out += "\n"
out += "positive precision: " + str(results[3] / NUM_FOLDS) + "\n"
out += "positive recall: " + str(results[4] / NUM_FOLDS) + "\n"
out += "positive F-measure: " + str(results[5] / NUM_FOLDS) + "\n"
out += "\n"
out += "negative precision: " + str(results[6] / NUM_FOLDS) + "\n"
out += "negative recall: " + str(results[7] / NUM_FOLDS) + "\n"
out += "negative F-measure: " + str(results[8] / NUM_FOLDS) + "\n"
out += "\n"
out += "neutral precision: " + str(results[9] / NUM_FOLDS) + "\n"
out += "neutral recall: " + str(results[10] / NUM_FOLDS) + "\n"
out += "neutral F-measure: " + str(results[11] / NUM_FOLDS) + "\n"
out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
print(out)
# The general classification process.
# The concrete algorithm will be provided external
def classify(content):
# To use the map function only one argument can be passed, so it needs to be splitted in its parts.
classifier_blank = content[0] # The encapsulated train function of the actual classifier.
corpus = content[1]
txt = content[2]
results = [0.0] * 12 # The amount of the statistic values
cv = model_selection.KFold(n_splits=NUM_FOLDS, shuffle=SHUFFLE, random_state=SEED)
for train_index, test_index in cv.split(corpus):
train_values = []
test_values = []
for i in train_index:
train_values.append(corpus[i])
for i in test_index:
test_values.append(corpus[i])
classifier = classifier_blank(train_values)
get_stats_cross(train_values, test_values, classifier, results)
print_stats(txt, results)
# In order to get the baseline performance for the other classifiers
# this function computes a sort of ZeroR-classification for all sentiments.
def classify_ZeroR(content):
corpus = content[1]
txt = content[2]
neutral = 0
positive = 0
negative = 0
for i in corpus:
if i[1] == "neutral":
neutral += 1
elif i[1] == "positive":
positive += 1
elif i[1] == "negative":
negative += 1
else:
print("ERROR: classify_ZeroR")
return
out = txt + "\n"
out += "Amount neutral: " + str(float(neutral) / len(corpus)) + "\n"
out += "Amount positive: " + str(float(positive) / len(corpus)) + "\n"
out += "Amount negative: " + str(float(negative) / len(corpus)) + "\n"
out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––"
print(out)
# To test the distribution of the classes for every fold
def classify_distribution_test(content):
corpus = content[1]
txt = content[2]
cv = model_selection.KFold(n_splits=NUM_FOLDS, shuffle=SHUFFLE, random_state=SEED)
for train_index, test_index in cv.split(corpus):
train_values = []
test_values = []
neutral_train = 0
positive_train = 0
negative_train = 0
neutral_test = 0
positive_test = 0
negative_test = 0
for i in train_index:
train_values.append(corpus[i])
for i in test_index:
test_values.append(corpus[i])
for i in train_values:
if i[1] == "neutral":
neutral_train += 1
elif i[1] == "positive":
positive_train += 1
elif i[1] == "negative":
negative_train += 1
else:
print("ERROR: classify_classify_distribution_test train_values")
return
for i in test_values:
if i[1] == "neutral":
neutral_test += 1
elif i[1] == "positive":
positive_test += 1
elif i[1] == "negative":
negative_test += 1
else:
print("ERROR: classify_classify_distribution_test test_values")
return
out = "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
out += txt + "\n"
out += "Amount neutral train: " + str(float(neutral_train) / len(train_values)) + "\n"
out += "Amount positive train: " + str(float(positive_train) / len(train_values)) + "\n"
out += "Amount negative train: " + str(float(negative_train) / len(train_values)) + "\n"
out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
out += "Amount neutral test: " + str(float(neutral_test) / len(test_values)) + "\n"
out += "Amount positive test: " + str(float(positive_test) / len(test_values)) + "\n"
out += "Amount negative test: " + str(float(negative_test) / len(test_values)) + "\n"
out += "––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––\n"
print(out)
# The encapsulated train function of the Naive Bayes classifier
def NB_classifier(train_set):
classifier = SklearnClassifier(naive_bayes.MultinomialNB(
alpha = 1.0,
fit_prior = True
))
classifier.train(train_set)
return classifier
# The encapsulated train function of the decision tree classifier
def DT_classifier(train_set):
classifier = nltk.DecisionTreeClassifier.train(train_set)
return classifier
# The encapsulated train function of the maximum entropy classifier
def ME_classifier(train_set):
classifier = nltk.MaxentClassifier.train(
train_set,
max_iter = MAXENT_MAX_ITER,
trace = 0,
algorithm = 'MEGAM'
)
return classifier
# The encapsulated train function of the support vector machine classifier
def SVM_classifier(train_set):
# Alternative SVM wit slightly worse performance
# classifier = SklearnClassifier(svm.SVC(
# C = 100000.0,
# kernel = 'linear',
# degree = 3,
# gamma = 'auto',
# coef0 = 0.0,
# shrinking = True,
# probability = False,
# tol = 1.0,
# cache_size = 200,
# class_weight = None,
# verbose = False,
# max_iter = -1,
# decision_function_shape = None,
# random_state = None
# ))
classifier = SklearnClassifier(svm.LinearSVC(
C = 1.0,
class_weight = None,
dual = True,
fit_intercept = True,
intercept_scaling = 0.1,
loss = 'squared_hinge',
max_iter = 1000,
multi_class = 'ovr',
penalty = 'l2',
random_state = None,
tol = 1.0,
verbose = 0
))
classifier.train(train_set)
return classifier
# Get the sparse and dense features and perform the classification with multicore support.
# To save some RAM one could perform the sparse and dense features in two separate runs.
start_time = time.time()
de_sentiment_sparse = generate_sets_sparse(0)
print("de_sentiment_sparse generation: " + str(time.time()-start_time))
start_time = time.time()
de_sentiment_dense = generate_sets_dense(0)
print("de_sentiment_dense generation: " + str(time.time()-start_time))
start_time = time.time()
de_sentiment_agree2_sparse = generate_sets_sparse(1)
print("de_sentiment_agree2_sparse generation: " + str(time.time()-start_time))
start_time = time.time()
de_sentiment_agree2_dense = generate_sets_dense(1)
print("de_sentiment_agree2_dense generation: " + str(time.time()-start_time))
start_time = time.time()
de_sentiment_agree3_sparse = generate_sets_sparse(2)
print("de_sentiment_agree3_sparse generation: " + str(time.time() - start_time))
start_time = time.time()
de_sentiment_agree3_dense = generate_sets_dense(2)
print("de_sentiment_agree3_dense generation: " + str(time.time() - start_time) + "\n")
gc.collect() # Trigger the garbage collector to free a little RAM.
pool = Pool(CORES)
start_time = time.time()
pool.map_async(classify, [
(NB_classifier, de_sentiment_sparse, "Naive sparse: de_sentiment.tsv",),
(NB_classifier, de_sentiment_agree2_sparse, "Naive sparse: de_sentiment_agree2.tsv",),
(NB_classifier, de_sentiment_agree3_sparse, "Naive sparse: de_sentiment_agree3.tsv",),
(NB_classifier, de_sentiment_dense, "Naive dense: de_sentiment.tsv",),
(NB_classifier, de_sentiment_agree2_dense, "Naive dense: de_sentiment_agree2.tsv",),
(NB_classifier, de_sentiment_agree3_dense, "Naive dense: de_sentiment_agree3.tsv",),
(SVM_classifier, de_sentiment_sparse, "SVM sparse: de_sentiment.tsv",),
(SVM_classifier, de_sentiment_agree2_sparse, "SVM sparse: de_sentiment_agree2.tsv",),
(SVM_classifier, de_sentiment_agree3_sparse, "SVM sparse: de_sentiment_agree3.tsv",),
(SVM_classifier, de_sentiment_dense, "SVM dense: de_sentiment.tsv",),
(SVM_classifier, de_sentiment_agree2_dense, "SVM dense: de_sentiment_agree2.tsv",),
(SVM_classifier, de_sentiment_agree3_dense, "SVM dense: de_sentiment_agree3.tsv",),
(ME_classifier, de_sentiment_sparse, "MaxEnt sparse: de_sentiment.tsv",),
(ME_classifier, de_sentiment_agree2_sparse, "MaxEnt sparse: de_sentiment_agree2.tsv",),
(ME_classifier, de_sentiment_agree3_sparse, "MaxEnt sparse: de_sentiment_agree3.tsv",),
(ME_classifier, de_sentiment_dense, "MaxEnt dense: de_sentiment.tsv",),
(ME_classifier, de_sentiment_agree2_dense, "MaxEnt dense: de_sentiment_agree2.tsv",),
(ME_classifier, de_sentiment_agree3_dense, "MaxEnt dense: de_sentiment_agree3.tsv",),
(DT_classifier, de_sentiment_sparse, "Tree sparse: de_sentiment.tsv",),
(DT_classifier, de_sentiment_agree2_sparse, "Tree sparse: de_sentiment_agree2.tsv",),
(DT_classifier, de_sentiment_agree3_sparse, "Tree sparse: de_sentiment_agree3.tsv",),
(DT_classifier, de_sentiment_dense, "Tree dense: de_sentiment.tsv",),
(DT_classifier, de_sentiment_agree2_dense, "Tree dense: de_sentiment_agree2.tsv",),
(DT_classifier, de_sentiment_agree3_dense, "Tree dense: de_sentiment_agree3.tsv",)
])
pool.close()
pool.join()
|
Comments (3)
You can clone a snippet to your computer for local editing. Learn more.
canlı okey oyna
canlı batak oyna
canlı tavla oyna
Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri Dağ Evleri
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
metin2 pvp serverler
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
okey oyna
Damar Romeyelle Hamlin, 24 Mart 1998 doğumlu, Amerikan futbolunda Buffalo Bills takımının güvenlik oyuncusudur. Üniversite kariyerini Pittsburgh Üniversitesi’nde oynayarak tamamladı ve 2021 NFL Draftı’nın altıncı turunda Bills tarafından seçildi. İşte Hamlin hakkında daha fazla bilgi:
Erken Yıllar: Hamlin, McKees Rocks, Pennsylvania’da büyüdü. Central Catholic High School’da eğitim gördü ve All-State birinci takımına seçildi. Ayrıca AAAA Savunma Oyuncusu unvanını kazandı.
Üniversite Kariyeri: Pittsburgh Panthers’ta oynayan Hamlin, üniversiteye gelmeden önce önemli bir köşe oyuncusu olarak kabul ediliyordu. Dört yıldızlı bir oyuncu olarak, Pittsburgh, Penn State, Ohio State ve Temple gibi büyük kolej futbol programları tarafından takip edildi. Pittsburgh Panthers’ı seçti ve 2016’da üniversite futboluna başladı. İlk yılında sakatlık yaşadı ve bu nedenle tıbbi bir kırmızı gömlek istisnası aldı. 2017’de kırmızı gömlekli bir öğrenci olarak ikinci yılında tam sağlığına kavuşmadan üç maçta oynadı.
Profesyonel Kariyer: Hamlin, çaylak sezonunun büyük bir bölümünü yedek olarak geçirdikten sonra, 2022’de Micah Hyde’ın sezonu sonlandıran bir sakatlık yaşamasının ardından başlayan bir oyuncu olarak Bills’in savunmasında yer aldı. Ancak, 2 Ocak 2023 tarihinde Cincinnati Bengals ile oynanan bir Monday Night Football maçında bir takla sonrası kalp krizi geçirdi ve kritik durumda hastaneye kaldırıldı. Dokuz gün sonra taburcu edildi ve sonunda profesyonel futbola geri döndü.
Hamlin, 2023 yılında NFLPA Alan Page Topluluk Ödülü, NFL Yılın Geri Dönen Oyuncusu Ödülü ve George Halas Ödülü gibi önemli ödüller kazandı. Ayrıca 2020’de All-ACC İkinci Takımı’na seçildi.
Jeremy Lee Renner, 7 Ocak 1971 doğumlu, Amerikalı bir aktördür. Kariyerine Dahmer (2002) ve Neo Ned (2005) gibi bağımsız filmlerde rol alarak başladı. Daha sonra S.W.A.T. (2003) ve 28 Weeks Later (2007) gibi büyük yapımlarda yardımcı rollerde yer aldı. Renner, The Hurt Locker (2009) filmindeki asker performansıyla En İyi Erkek Oyuncu dalında Akademi Ödülü’ne aday gösterildi ve The Town (2010) filminde hırçın bir soyguncuyu canlandırarak En İyi Yardımcı Erkek Oyuncu dalında bir kez daha aday gösterildi.
Ayrıca Renner, Marvel Sinematik Evreni’nde Clint Barton / Hawkeye karakterini canlandırdı. Bu rolü, The Avengers (2012) filminde ve Disney+ mini dizisi Hawkeye (2021)'da üstlendi. Ayrıca Mission: Impossible – Ghost Protocol (2011), The Bourne Legacy (2012), Hansel & Gretel: Witch Hunters (2013) ve Mission: Impossible – Rogue Nation (2015) gibi aksiyon filmlerinde ve American Hustle (2013), Arrival (2016) ve Wind River (2017) gibi dramalarda da yer aldı.
Renner, 2021’den bu yana Paramount+ suç gerilimi dizisi Mayor of Kingstown’da başrol oynuyor. Modesto, California’da doğan Renner, İrlandalı ve Alman kökenlidir. Lise eğitimini Fred C. Beyer High School’da tamamladıktan sonra Modesto Junior College’da bilgisayar bilimi ve kriminoloji okudu. Ancak bir drama dersi alarak oyunculuğa yönelmeye karar verdi.
Jeremy Renner, hem bağımsız yapımlarda hem de büyük stüdyo filmlerindeki başarılı kariyeriyle tanınan bir aktördür.
Travis Michael Kelce, 5 Ekim 1989 doğumlu, Amerikan Ulusal Futbol Ligi (NFL) takımlarından Kansas City Chiefs’te oynayan bir Amerikan futbolu tight end’idir. 2013 NFL Draftı’nın üçüncü turunda Chiefs tarafından seçildi ve daha sonra takımıyla Super Bowl LIV, LVII ve LVIII’i kazandı.
Kelce, Cincinnati Bearcats üniversitesinde kolej futbolu oynadı. Kariyeri boyunca dokuz kez Pro Bowl seçildi ve dört kez birinci takım ve üç kez ikinci takım All-Pro seçildi. Aynı zamanda NFL tarihinde bir tight end olarak en fazla ve ardışık olarak yedi sezon boyunca 1.000 alım yapan oyuncu unvanını elinde bulunduruyor. 2020’de sadece 15 maçta oynamasına rağmen tek sezon içinde bir tight end olarak en fazla alım yapan oyuncu rekorunu kırdı ve 1.416 alım yaptı.
2022 sezonunda Kelce, NFL tarihinde 10.000 alım yapan beşinci tight end oldu ve bu kilometre taşını NFL tarihinde en hızlı şekilde geçen tight end olarak kaydetti. Ayrıca NFL 2010’ların On Yıl Takımı’na seçildi. Dış saha etkinliklerinin ötesinde, Kelce, gerçeklik ve senaryolu televizyon programlarında ve reklamlarda da yer aldı. Ayrıca kardeşi Jason ile birlikte popüler kültürden futbola kadar birçok konuyu ele alan “New Heights” adlı bir podcast sunuyor.
Travis Kelce, muhteşem atletizmi ve bölge kapsamını okuma yeteneği ile tanınan bir tight end olarak NFL tarihindeki en büyük oyunculardan biri olarak kabul ediliyor.
Tucker Swanson McNear Carlson, 16 Mayıs 1969 doğumlu, Amerikalı bir muhafazakâr siyasi yorumcu ve yazardır. 2016’dan 2023’e kadar Fox News’de gecenin siyasi tartışma programı Tucker Carlson Tonight’ı sunmuştu. Fox News ile olan sözleşmesi sona erdikten sonra Tucker on X adlı bir programı sunmaktadır.
Carlson, eski ABD Başkanı Donald Trump’ın bir savunucusu olarak bilinir ve “muhtemelen Trumpizmin en tanınmış taraftarı” olarak tanımlanmıştır. Ayrıca “sağ medyanın en etkili sesi” olarak kabul edilir. Medya kariyerine 1990’larda başlayan Carlson, The Weekly Standard ve diğer yayınlar için yazdı. 2000-2005 yılları arasında CNN yorumcusu ve 2001-2005 yılları arasında ağın prime-time haber tartışma programı Crossfire’ın sunucusu olarak görev yaptı. 2005-2008 yılları arasında MSNBC’de gecenin programı Tucker’ı sundu. 2009’da Fox News için politik analist oldu ve kendi programını başlattı.
Carlson, sağcı haber ve görüş web sitesi The Daily Caller’ın kurucu ortağı ve ilk baş editörü olarak da bilinir. Üç kitap yazdı: Politicians, Partisans, and Parasites (2003), Ship of Fools (2018) ve The Long Slide (2021). Beyaz şikayet politikalarının önde gelen seslerinden biri olarak tanınan Carlson, aşırı sağ fikirleri genel politika ve söyleme taşıma konusunda bilinir. Demografik değişim, COVID-19, 6 Ocak Amerika Birleşik Devletleri Kongre Baskını ve Ukrayna biyosilahları gibi konularda komplo teorilerini destekledi ve bu konularda yanıltıcı ifadelerde bulundu.