📁 nlp-roBERTa-biLSTM-attention └── 📁 BERT 📁 nlp-roBERTa-biLSTM-attention\BERT ├── 📄 all_models1.png ├── 📄 all_models2.png ├── 📄 all_models3.png ├── 📄 all_models4.png ├── 📄 lgb_knn_mlp.png ├── 📄 rf_knn_mlp.png └── 📁 BoW 📁 nlp-roBERTa-biLSTM-attention\BoW ├── 📄 all_models_1.png ├── 📄 all_models_2.png ├── 📄 all_models_3.png ├── 📄 all_models_4.png ├── 📄 dask_xgb.png ├── 📄 rf_bagging.png ├── 📄 rf_gb_voting.png ├── 📄 rf_knn_mlp.png └── 📁 Data_scraping 📁 nlp-roBERTa-biLSTM-attention\Data_scraping ├── 📄 Twint-data collection.ipynb ├── 📄 Twitter academic api.ipynb └── 📁 Extended_datasets 📁 nlp-roBERTa-biLSTM-attention\Extended_datasets ├── 📁 Global_covid_twitter_data │ 📁 nlp-roBERTa-biLSTM-attention\Extended_datasets\Global_covid_twitter_data │ ├── 📄 Global.csv │ ├── 📄 Global_twitter_data_preprocessing.ipynb │ ├── 📄 best-model-global.ipynb │ ├── 📄 classification_report1.png │ ├── 📄 classification_report2.png │ ├── 📄 confusion_matrix.png │ ├── 📁 preprocessed_dataset │ │ 📁 nlp-roBERTa-biLSTM-attention\Extended_datasets\Global_covid_twitter_data\preprocessed_dataset │ │ ├── 📄 sample_data_global_0.csv │ │ ├── 📄 sample_data_global_1.csv │ │ ├── 📄 sample_data_global_10.csv │ │ ├── 📄 sample_data_global_11.csv │ │ ├── 📄 sample_data_global_12.csv │ │ ├── 📄 sample_data_global_13.csv │ │ ├── 📄 sample_data_global_14.csv │ │ ├── 📄 sample_data_global_15.csv │ │ ├── 📄 sample_data_global_16.csv │ │ ├── 📄 sample_data_global_17.csv │ │ ├── 📄 sample_data_global_18.csv │ │ ├── 📄 sample_data_global_19.csv │ │ ├── 📄 sample_data_global_2.csv │ │ ├── 📄 sample_data_global_20.csv │ │ ├── 📄 sample_data_global_21.csv │ │ ├── 📄 sample_data_global_22.csv │ │ ├── 📄 sample_data_global_23.csv │ │ ├── 📄 sample_data_global_24.csv │ │ ├── 📄 sample_data_global_25.csv │ │ ├── 📄 sample_data_global_26.csv │ │ ├── 📄 sample_data_global_27.csv │ │ ├── 📄 sample_data_global_28.csv │ │ ├── 📄 sample_data_global_29.csv │ │ ├── 📄 sample_data_global_3.csv │ │ ├── 📄 sample_data_global_30.csv │ │ ├── 📄 sample_data_global_31.csv │ │ ├── 📄 sample_data_global_32.csv │ │ ├── 📄 sample_data_global_33.csv │ │ ├── 📄 sample_data_global_34.csv │ │ ├── 📄 sample_data_global_35.csv │ │ ├── 📄 sample_data_global_36.csv │ │ ├── 📄 sample_data_global_37.csv │ │ ├── 📄 sample_data_global_38.csv │ │ ├── 📄 sample_data_global_39.csv │ │ ├── 📄 sample_data_global_4.csv │ │ ├── 📄 sample_data_global_40.csv │ │ ├── 📄 sample_data_global_5.csv │ │ ├── 📄 sample_data_global_6.csv │ │ ├── 📄 sample_data_global_7.csv │ │ ├── 📄 sample_data_global_8.csv │ │ ├── 📄 sample_data_global_9.csv │ ├── 📄 tweets_distribution_global.png │ ├── 📄 word_cloud_global.png │ ├── 📄 word_freq.png ├── 📁 Only_USA_covid_twitter_data │ 📁 nlp-roBERTa-biLSTM-attention\Extended_datasets\Only_USA_covid_twitter_data │ └── 📄 Only_USA.csv │ └── 📄 frequency.png │ └── 📁 model3_attention │ 📁 nlp-roBERTa-biLSTM-attention\Extended_datasets\Only_USA_covid_twitter_data\model3_attention │ ├── 📄 accuracy.png │ ├── 📄 best-model-only-usa.ipynb │ ├── 📄 classification_report1.png │ ├── 📄 classification_reports.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png │ ├── 📄 model_architecture.png │ └── 📄 only_USA_twitter_data_preprocessing.ipynb │ └── 📄 sample_data_only_USA.csv │ └── 📄 uk_covid_twitter_sentiment.ipynb │ └── 📄 word_cloud.png └── 📁 External_datasets 📁 nlp-roBERTa-biLSTM-attention\External_datasets ├── 📁 Apple_twitter_sentiments │ 📁 nlp-roBERTa-biLSTM-attention\External_datasets\Apple_twitter_sentiments │ ├── 📄 accuracy.png │ ├── 📄 best-model-apple-twitter.ipynb │ ├── 📄 classification_reports1.png │ ├── 📄 classification_reports2.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png ├── 📁 Reddit │ 📁 nlp-roBERTa-biLSTM-attention\External_datasets\Reddit │ ├── 📄 Reddit_Data.csv │ ├── 📄 Screenshot 2023-05-08 025117.png │ ├── 📄 Screenshot 2023-05-08 025141.png │ ├── 📄 Screenshot 2023-05-08 025820.png │ ├── 📄 Screenshot 2023-05-08 025915.png │ ├── 📄 Screenshot 2023-05-08 025934.png │ ├── 📄 Screenshot 2023-05-08 025955.png │ ├── 📄 Screenshot 2023-05-08 030042.png │ ├── 📄 best-model-reddit.ipynb │ ├── 📄 classification_reports.png │ ├── 📄 cm.png ├── 📁 Twitter │ 📁 nlp-roBERTa-biLSTM-attention\External_datasets\Twitter │ ├── 📄 Twitter_Data.csv │ ├── 📄 best-model-twitter-external.ipynb │ ├── 📄 classification_report1.png │ ├── 📄 classification_report2.png │ ├── 📄 confusion_matrix.png ├── 📁 US_airlines_twitter_sentiments │ 📁 nlp-roBERTa-biLSTM-attention\External_datasets\US_airlines_twitter_sentiments │ ├── 📄 accuracy.png │ ├── 📄 best-model-us-airlines.ipynb │ ├── 📄 classification_report1.png │ ├── 📄 classification_report2.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png ├── 📄 token.txt └── 📄 LICENSE └── 📁 Previous_research 📁 nlp-roBERTa-biLSTM-attention\Previous_research ├── 📄 1.png ├── 📄 2.png ├── 📄 Vaibhav 2022.pdf ├── 📄 Yuxing 2023.pdf └── 📄 README.md └── 📁 RoBERTa 📁 nlp-roBERTa-biLSTM-attention\RoBERTa ├── 📄 cardiff_all_models_1.png ├── 📄 cardiff_all_models_2.png ├── 📄 cardiff_all_models_3.png ├── 📄 cardiff_all_models_4.png ├── 📄 lgb+knn+mlp.png ├── 📄 roberta_base_rf+knn+mlp.png └── 📁 SBERT 📁 nlp-roBERTa-biLSTM-attention\SBERT ├── 📄 all_models_1.png ├── 📄 all_models_2.png ├── 📄 all_models_3.png ├── 📄 all_models_4.png ├── 📄 all_models_5.png ├── 📄 lgb_knn_mlp.png ├── 📄 rf_knn_mlp.png └── 📁 TF-IDF 📁 nlp-roBERTa-biLSTM-attention\TF-IDF ├── 📄 all_models_1.png ├── 📄 all_models_2.png ├── 📄 all_models_3.png ├── 📄 all_models_4.png ├── 📄 rf_bagging.png ├── 📄 rf_knn_mlp.png ├── 📄 rf_stacking_voting.png └── 📁 Target_lexicon_selection 📁 nlp-roBERTa-biLSTM-attention\Target_lexicon_selection ├── 📄 target_lexicon_selection.ipynb ├── 📄 textblob1.png ├── 📄 textblob2.png ├── 📄 textblob3.png ├── 📄 textblob4.png ├── 📄 vader1.png ├── 📄 vader2.png ├── 📄 vader3.png ├── 📄 vader4.png ├── 📄 wordnet1.png ├── 📄 wordnet2.png ├── 📄 wordnet3.png ├── 📄 wordnet4.png └── 📁 Twitter-RoBERTa+LSTM 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM ├── 📁 BiLSTM+CNN │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\BiLSTM+CNN │ ├── 📄 accuracy.png │ ├── 📄 biLSTM+CNN.ipynb │ ├── 📄 classification_report.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png │ ├── 📄 model_architecture.png ├── 📁 model1_keras_1_dense_layers │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model1_keras_1_dense_layers │ ├── 📄 Screenshot 2023-04-20 215305.png │ ├── 📄 accuracy1.png │ ├── 📄 classification_report.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss1.png │ ├── 📄 model_architecture.png │ ├── 📄 summary.png ├── 📁 model2_keras_3_dense_layers │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model2_keras_3_dense_layers │ ├── 📄 accuracy1.png │ ├── 📄 classification_report.png │ ├── 📄 classification_report1.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss1.png │ ├── 📄 model_architecture.png │ ├── 📄 model_summary.png │ ├── 📄 train_val_loss.png ├── 📁 model3_BiLSTM │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model3_BiLSTM │ ├── 📄 accuracy.png │ ├── 📄 classification_report1.png │ ├── 📄 classification_report2.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png │ ├── 📄 lr_vs_epoch.png │ ├── 📄 model_architecture.png │ ├── 📄 summary.png │ ├── 📄 target_val_counts.png │ ├── 📄 train_acc_vs_lr.png │ ├── 📄 train_loss_vs_lr.png │ ├── 📄 training_val.png │ ├── 📄 val_acc_vs_lr.png │ ├── 📄 val_loss_vs_lr.png ├── 📁 model4_BiLSTM+attention │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention │ └── 📁 XAI │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention\XAI │ ├── 📁 Lime │ │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention\XAI\Lime │ │ ├── 📄 lime1.png │ │ ├── 📄 lime2.png │ │ ├── 📄 lime3.png │ │ ├── 📄 lime4.png │ │ ├── 📄 lime5.png │ │ ├── 📄 lime6.png │ │ ├── 📄 lime7.png │ ├── 📁 SHAP │ │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention\XAI\SHAP │ │ └── 📄 shap_neg1.png │ │ └── 📄 shap_neg2.png │ │ └── 📄 shap_neg_bar_ascending.png │ │ └── 📄 shap_neg_bar_descending.png │ │ └── 📄 shap_neu1.png │ │ └── 📄 shap_neu2.png │ │ └── 📄 shap_neu_bar.png │ │ └── 📄 shap_neu_bar_ascending.png │ │ └── 📄 shap_neu_bar_descending.png │ │ └── 📄 shap_pos1.png │ │ └── 📄 shap_pos2.png │ │ └── 📄 shap_pos_bar_ascending.png │ │ └── 📄 shap_pos_bar_descending.png │ └── 📄 learning_rates.png │ └── 📄 model_architecture.png │ └── 📄 summary.png │ └── 📁 uk_twitter_data_3k │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention\uk_twitter_data_3k │ ├── 📄 accuracy.png │ ├── 📄 best-model_uk-tweet_3k.ipynb │ ├── 📄 classification_report.png │ ├── 📄 classification_report2.png │ ├── 📄 confusion_matrix.png │ ├── 📄 loss.png │ ├── 📄 train_val_loss.png │ └── 📁 uk_twitter_data_all │ 📁 nlp-roBERTa-biLSTM-attention\Twitter-RoBERTa+LSTM\model4_BiLSTM+attention\uk_twitter_data_all │ └── 📄 accuracy.png │ └── 📄 best-model-uk-twitter-all.ipynb │ └── 📄 classification_report1.png │ └── 📄 classification_report2.png │ └── 📄 confusion_matrix.png │ └── 📄 loss.png └── 📁 UK_covid_twitter_data 📁 nlp-roBERTa-biLSTM-attention\UK_covid_twitter_data ├── 📄 all_cities.csv ├── 📄 sample_data_3000.csv ├── 📄 sample_data_all.csv ├── 📄 stacked bar graph.png ├── 📄 tweets distribution.png ├── 📄 uk_twitter_data_preprocessing.ipynb └── 📄 list.md └── 📄 uk-twitter-3k-classical-modelling.ipynb └── 📁 word2vec 📁 nlp-roBERTa-biLSTM-attention\word2vec └── 📄 all_models_1.png └── 📄 all_models_2.png └── 📄 all_models_3.png └── 📄 all_models_4.png └── 📄 rf_knn_mlp.png └── 📄 rf_stacking_voting.png