Модель распознавания эмоций в речи GigaAM-Emo
умеет классифицировать 4 эмоции: angry
, sad
, neutral
, positive
. Для некоторых задач бывает недостаточно распознавать 4 класса и возникает необходимость расширения этого списка. В данной статье мы рассмотрим:
существующие корпуса данных, предназначенных для распознавания эмоций;
ключевые возможности разработанного пайплайна для дообучения
GigaAM
с использованием библиотекhydra
иPytorch Lightning
;результаты экспериментов с различными архитектурами и функциями потерь.
Демо можно попробовать тут
Данные
Открытых корпусов данных для задачи распознавания эмоций в русской речи не так много: dusha
и три небольших корпуса данных - resd
, repv
, repv-s
, собранных в рамках проекта Aniemore. На английском языке данных больше. Возьмём только самые популярные: esd
, expresso
, msp podcast
. Так же будем использовать небольшой закрытый корпус данных dialogs
. Ниже корпуса данных рассмотрены подробнее.
RESD_Annotated
,REPV
,REPV-S
.RESD_Annotated
- 7 эмоций (angry
,sad
,neutral
,happy
,fearful
,disgusted
,enthusiasm
), 4 часа аудиозаписей диалогов, число аудиозаписей 1396
Диаграмма распределения эмоций для корпуса данных RESD

REPV
- 5 эмоций (angry
,sad
,happy
,enthusiasm
,tired
), голосовые сообщения, 200 актеров, 2 нейтральные фразы, 2035 аудиозаписей
Диаграмма распределения эмоций для корпуса данных REPV

REPV-S
- 5 эмоций (angry
,sad
,happy
,enthusiasm
,tired
), голосовые сообщения, "Привет, как дела?" с разными эмоциями, 140 аудиозаписей.
Диаграмма распределения эмоций для корпуса данных REPV-S

Здесь автор статьи немного негодует от качества данных Aniemore
Что не понравилось:
Отсутствует однообразная структура в различных паркетах (не для всех аудиозаписей имеется текстовая аннотация, пола, где-то отсутствуют какие-то ключи).
Данные имеют различную частоту дискретизации, даже в рамках одного паркета. В некоторых местах частота дискретизации вовсе не указана.
Отсутствует идентификатор спикера.
Различные классы эмоций (возможно, с другой стороны, это и неплохо).
Примеры:
Aniemore/resd_annotated
train: Dataset({
features: ['name', 'path', 'speech', 'text', 'emotion'],
num_rows: 1116
})
{'name': '32_happiness_enthusiasm_h_120',
'path': 'happiness_enthusiasm_32/32_happiness_enthusiasm_h_120.wav',
'speech': {'path': '32_happiness_enthusiasm_h_120.wav',
'array': array([-0.00018311, -0.00061035, -0.00076294, ..., 0.00085449,
0.00048828, 0.00030518]),
'sampling_rate': 16000},
'text': 'Конечно, расскажу, обязательно. Ой, сейчас расскажу.',
'emotion': 'happiness'}
Aniemore/REPV-S
train: Dataset({
features: ['path', 'file', 'gender', 'emotion', 'speech'],
num_rows: 112
})
{'path': '/content/drive/MyDrive/SocialCode/emotions/enthusiasm/m/М14.mp3',
'file': 'М14.mp3',
'gender': 'm',
'emotion': 'enthusiasm',
'speech': [5.221595984039595e-06,
8.369257557205856e-06, ... ]}
Aniemore/REPV
train: Dataset({
features: ['path', 'file', 'gender', 'emotion', 'speech'],
num_rows: 1628
})
{'path': '/content/drive/MyDrive/SocialCode/emotions2000/sadness/f/жен.лес (2)_01.mp3',
'file': 'жен.лес (2)_01.mp3',
'gender': 'f',
'emotion': 'sadness',
'speech': [-1.4211690313459258e-07,
1.2882625810561876e-07,
-1.2283784656119678e-07,
1.1345710504429007e-07, ...]}
Хотелось, чтобы все аудиозаписи были одной частоты дискретизации (например 44.1kHz), и для каждой были следующие данные: audio_path
, speaker_id
, text
, gender
, emotion
.
dusha - на русском языке, авторы выделяют 4 эмоции (
positive
,angry
,sad
,neutral
), 2061 спикеров, 160566 аудиозаписей.
Диаграмма распределения эмоций для корпуса данных dusha

msp podcast - на английском языке, авторы выделяют 10 эмоций(
angry
,sad
,neutral
,happy
,contempt
,surprised
,disgusted
,fearful
,other
,no agreement
), 1859 спикеров, 88175 аудиозаписей.
Диаграмма распределения эмоций для корпуса данных msp podcast

expresso - на английском языке, авторы выделяют 10 модальностей произношения (
confused
,neutral
,emphasis
,essentials
,longform
,enunciated
,happy
,laughing
,sad
,singing
,whisper
), 4 спикера, 11615 - аудиозаписей.
Диаграмма распределения эмоций для корпуса данных expresso

esd - на английском языке, авторы выделяют 5 эмоций (
angry
,sad
,neutral
,happy
,surprised
), 10 спикеров (5 мужчин, 5 женщин), одинаковые фразы с разной эмоциональной окраской, 17500 - аудиозаписей.
Диаграмма распределения эмоций для корпуса данных ESD

dialogs
- небольшой собственный закрытый корпус данных, выделены 7 эмоций (angry
,sad
,neutral
,happy
,surprised
,disgusted
,fearful
), где 2 спикера, ~2200 аудиозаписей.
Диаграмма распределения эмоций для корпуса данных dialogs

Определимся с целевыми классами. В большинстве корпусов данных для задач распознавания эмоций в речи выделяют следующие классы: angry
, sad
, neutral
, happy
, surprised
, fearful
, disgusted
- именно их будем использовать в качестве целевых классов. Все остальные эмоции / модальности речи отправляем в класс other
.
В силу ограничений по количеству вычислительных ресурсов, выкинем аудиозаписи, длительность которых более 10 секунд.
Пройдёмся по каждому корпусу данных детально:
dusha
- для обучения возьмем по 5000 записей каждой эмоции. Для валидации используем те примеры, которые предложены авторами для оценки качества модели;resd
,repv
,repv-s
- берём все данные, разбиваем наtrain/test
, в соответствии предложенным ими разбиением;expresso
- объединим классыlaughing
иhappy
, разделим на обучающую и валидационную следующим образомdf_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42)
;msp_podcast
- отфильтруем строки, гдеemoact
<= 3.5 (emoact
- уровень эмоциональной активности), разделим на обучающую и валидационную следующим образомdf_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42)
, и из обучающей оставим не более 5000 примеров каждого класса;esd
- для обучения берём 10% аудиозаписей пропорционально каждому спикеру (по эмоциям там тоже получается баланс). В валидационную выборку из этого корпуса данных брать ничего не будем;dailogs
- разделим на обучающую и валидационную следующим образомdf_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42)
.
В результате получится следующее распределение в обучающей выборке:

Распределение в валидационной выборке

Pipeline для обучения моделей
Для дообучения нужно разработать удобный пайплайн для экспериментов. Он использует следующие фреймворки: Hydra
и PyTorch Lightning
. Hydra
позволяет гибко управлять файлами конфигураций и изменять параметры запуска эксперимента, а PyTorch Lightning
дает возможность упростить код обучения. Далее разберём ключевые возможности, которые были использованы при разработке пайплайна для проведения экспериментов.
Hydra Ты ранее уже говорил о фреймворках, мб надо там сократить до их названия, а тут уже оставить с более развернутым текстом?
Hydra - это фреймворк на Python
, который упрощает разработку исследовательских приложений. Благодаря ему, можно структурировано хранить параметры экспериментов в иерархических YAML
-файлах и переопределять их через командную строку без изменений кода. Hydra
предоставляет возможность для удобного создания экземпляров класса прямо из файла конфигурации с помощью hydra.utils.instantiate
, а так же позволяет запускать серии экспериментов.
Рассмотрим возможность создания экземпляра класса по описанию из файла конфигурации. Например, в случае с классом AttentiveStatsPooling
с параметрами input_dim
и attention_hidden_dim
class AttentiveStatsPooling(nn.Module):
def __init__(self, input_dim=768, attention_hidden_dim=256):
super().__init__()
self.linear1 = nn.Linear(input_dim, attention_hidden_dim)
self.tanh = nn.Tanh()
self.linear2 = nn.Linear(attention_hidden_dim, 1)
self.bn = nn.BatchNorm1d(input_dim * 2)
...
С помощью YAML можно описать его так:
attentive_pooling:
_target_: src.modules.AttentiveStatsPooling
input_dim: 768
attention_ hidden_dim: 256
И для создания экземпляра класса в коде нужно написать следующую строчку self.attentive_pooling = hydra.utils.instantiate(cfg.attentive_pooling)
, где в переменной cfg.attentive_pooling
содержатся данные из файла конфигурации. По умолчанию hydra
создаёт объекты рекурсивно. Если необходимо создать только текущий объект, то нужно изменить значение по умолчанию у аргумента _recursive_=False
.
С помощью hydra
можно решить задачу удобного именования экспериментов. Рассмотрим процесс настройкиhydra
для наименования экспериментов по следующему шаблону {имя-конфига}{названия переопределённых параметров}{текущее время}
.
Есть файл конфигурации, в котором можно настроить параметры hydra
. Для наглядности, это - emov1.yaml
defaults:
- _self_
- loss: ce
- data_params: resd
- model: baseline
- optimizer: adam
- scheduler: warmup_then_plateau
hydra:
run:
dir: ./outputs/${now:%Y-%m-%d}/${hydra:job.config_name}_${config_names:${hydra:job.override_dirname}}_${now:%H-%M-%S}
job:
chdir: true
...
В этом файле конфигурации для ключа hydra.run.dir
указано выражение ${hydra:job.config_name}_${config_names:${hydra:job.override_dirname}}_${now:%H-%M-%S}
Разберём его подробнее:
${hydra:job.config_name}
- это встроенное выражение Hydra, которое возвращает имя основного конфигурационного файла, указанного в аргументе--config-name
при запуске эксперимента ;${now:%H-%M-%S}
- стандартный шаблон времени, который выводит текущее время запуска в формате "ЧЧ-ММ-СС", чтобы имена директорий не пересекались при множественных запусках;${hydra:job.override_dirname}
- возвращает строку, описывающую параметры, переопределённые в командной строке при запуске. Например, если запустить:python train.py model=baseline optimizer=adam
то вернется строкаmodel=baseline,optimizer=adam
;${config_names:...}
- это пользовательский ключ, который регистрируется черезOmegaConf.resolver
, чтобы разбирать строки переопределённых параметров и собирать из них имена, пример кода ниже
def format_config_names(overrides_str: str) -> str:
#функция `format_config_names` принимает все переопределенные переменные и возвращает их значения через `_`
if not overrides_str:
return "no_override"
return "_".join([x.split("=")[1] for x in overrides_str.split(",") if "=" in x])
OmegaConf.register_new_resolver("config_names", format_config_names)
Одна из классических проблем при работе с конфигурациями - необходимость многократно указывать одно и тоже значение в разных местах, когда это значение имеет одинаковый смысл во всех участках определения. В таких случаях, хочется задать его один раз в одном месте, и, далее, ссылаться на него, избегая дублирования, для снижения риска рассинхронизации.
Возьмём пример из нашей задачи по распознаванию эмоций. Количество эмоций (эквивалентно количеству классов) может изменяться в зависимости от используемого датасета. Так же количество классов необходимо для:
задания выходного размера последнего линейного слоя модели;
конфигурации функций потерь, например
AMSoftmax
;
Чтобы не указывать num_classes
вручную в каждом файле конфигурации, удобнее определить это значение в файле конфигурации датасета, и считать его как первоисточник о числе классов.
path_to_train_df: .../data/resd/train.csv
validation_datasets:
dusha: .../data/test.csv
resd: .../data/resd/test.csv
expresso: .../data/expresso/test.csv
msp_podcast: .../data/msp_podcast/test.csv
repv: .../data/repv/test.csv
repv-s: .../data/repv-s/test.csv
batch_size: 16
id2name:
- happy
- disgusted
- angry
- fearful
- enthusiasm
- neutral
- sad
num_classes: ${len:${id2name}} # тут можно поставить сразу число, но т.к. у нас число эмоций может изменятся, то удобнее зарегистрировать имя, которое будет считать количество классов
и пробросить параметр, который возвращает число классов в глобальный файл конфигурации
seed: 42
path_to_checkpoint_with_weights: ./models/v1_ssl.ckpt
num_classes: ${data_params.num_classes} # здесь пробасываем переменную в глобальное пространство имён
id2name: ${data_params.id2name}
и уже в файле конфигурации AMSoftmax
использовать переменную из глобального пространства имён
_target_: src.losses.AM_Softmax_v2
num_classes: ${num_classes}
Pytorch Lightning
PyTorch Lightning - высокоуровневая надстройка над PyTorch, которая позволяет сосредоточиться на логике модели, предоставляя удобный интерфейс для реализации рутинных задач части цикла обучения: обработку батчей, вызов backward, шаг оптимизатора, сбор метрик и логирование. Lightning упрощает код тренировки, из-за чего он становится компактнее и чище и самостоятельно масштабирует модель на несколько GPU.
Lightning интегрирован со многими инструментами ML и предоставляет готовые компоненты:
Trainer — класс для запуска обучения/валидации/тестирования. Он сам разбивает обучение на эпохи, следит за метриками, инициализирует коллбэки и логгеры. Например,
trainer = pl.Trainer(max_epochs=50, precision="bf16", strategy="ddp", logger=TensorBoardLogger(...))
сразу обеспечивает поддержку смешанной точности, распределённого обучения и логирования вTensorBoard
;LightningModule — базовый класс модели, в котором отделены методы
training_step
,validation_step
,configure_optimizers
и т.п. РеализацияEmoFinetuneTrainer
наследуется от него, определяя собственные тренировочные и валидационные шаги.Lightning
сам циклически вызывает эти методы и собирает логи;Callbacks — готовые классы для распространённых задач: например,
ModelCheckpoint
автоматически сохраняет лучшие модели по заданной метрике, аEarlyStopping
останавливает обучение при отсутствии улучшений. Благодаря этому не нужно писать код сохранения чекпоинтов или проверки на остановку —Lightning
берёт это на себя;Логгеры и метрики —
Lightning
из коробки поддерживает логирование вTensorBoard
,CSV
илиW&B
. Для вычисления метрик можно использовать библиотекуTorchMetrics
.
ИспользуяPyTorch Lightning
можно удобно реализовать возможность загружать несколько валидационных наборов данных для отслеживания метрик по каждому корпусу данных отдельно.
Для реализации нужно в файле конфигурации датасета определить словарь, где ключом будет название датасета, а значением - путь до csv файла
path_to_train_df: .../data/resd/train.csv
validation_datasets:
dusha: .../data/test.csv
resd: .../data/resd/test.csv
expresso: .../data/expresso/test.csv
msp_podcast: .../data/msp_podcast/test.csv
repv: .../data/repv/test.csv
repv-s: .../data/repv-s/test.csv
...
Далее создать DataLoader
для всех перечисленных наборов данных
val_loaders = {}
for name, path_to_df in config.validation_datasets.items():
val_dataset = AudioDataset(path_to_df, emo2id)
val_loader = DataLoader(
val_dataset,
shuffle=False,
batch_size=config.batch_size,
collate_fn=collate_fn,
num_workers=config.num_workers
)
val_loaders[name] = val_loader
При реализации модуля который наследуются от pl.LightningModule
, нужно в конструкторе класса создать все необходимые метрики для каждого датасета и положить их сразу на нужный device
- если он один, если несколько - то в начале эпохи валидации переносить метрику на соответствующий device
(вообще метрики, по умолчанию, кладутся на соответствующий девайс, но так как они хранятся в словарях, то необходимо положить самостоятельно). Реализация возможности использования нескольких валидационных корпусов данных выглядит так:
class EmoFinetuneTrainer(pl.LightningModule):
def __init__(self, config: TrainParams):
super().__init__()
...
self.val_metrics = {}
for val_name in config.data_params.validation_datasets.keys():
self.val_metrics[val_name] = {
'loss': torchmetrics.MeanMetric(),
'f1_micro': MulticlassF1Score(num_classes=config.num_classes, average='micro'),
'accuracy': MulticlassAccuracy(num_classes=config.num_classes)
}
self.avg_f1_micro = torchmetrics.MeanMetric()
...
def on_validation_start(self):
for val_name in self.val_metrics:
for metric in self.val_metrics[val_name].values():
metric.to(self.device)
def validation_step(self, batch: AudioBatch, batch_idx: int, dataloader_idx: int = 0):
val_name = list(self.config.data_params.validation_datasets.keys())[dataloader_idx]
metrics = self.val_metrics[val_name]
output = self.model.forward_for_train(batch)
loss = self.criterion(output, batch.emotions)
proba_pred = torch.softmax(output, dim=-1)
metrics['loss'](loss)
metrics['f1_micro'](proba_pred, batch.emotions)
metrics['accuracy'](proba_pred, batch.emotions)
def on_validation_epoch_end(self):
sch = self.lr_schedulers()
total_loss = 0.0
num_datasets = len(self.val_metrics)
self.avg_f1_micro.reset()
for val_name, metrics in self.val_metrics.items():
val_loss = metrics['loss'].compute()
total_loss += val_loss
f1_micro = metrics["f1_micro"].compute()
self.log(f'loss/valid/{val_name}', val_loss, sync_dist=True)
self.log(f'F1_score_micro/valid/{val_name}', f1_micro, sync_dist=True)
self.log(f'Accuracy/valid/{val_name}', metrics['accuracy'].compute(), sync_dist=True)
self.avg_f1_micro.update(f1_micro)
metrics['loss'].reset()
metrics['f1_micro'].reset()
metrics['accuracy'].reset()
avg_f1 = self.avg_f1_micro.compute()
self.log("F1_micro/valid/avg", avg_f1, prog_bar=True)
avg_loss = total_loss / num_datasets
self.log('loss/valid/avg', avg_loss, prog_bar=True)
sch.step(avg_loss)
Эксперименты
Для экспериментов использовалась архитектура модели, которая состоит из feature extractor
, пулинга и головы:
class EmotionModel(nn.Module):
def __init__(self, config):
super().__init__()
self.feature_extractor = hydra.utils.instantiate(config.feature_extractor)
self.pooling = hydra.utils.instantiate(config.pooling)
self.head = hydra.utils.instantiate(config.head)
def forward(self, batch: AudioBatch):
feats, lengths = self.feature_extractor(batch.wavs, batch.wav_lengths) # return [B, EMB_DIM, T], [B]
feats = feats.transpose(1, 2)# [B, T, EMB_DIM]
pooled = self.pooling(feats, lengths) # [B, NEW_EMB_DIM]
if hasattr(self.head, "use_labels_when_train") and self.head.use_labels_when_train is True:
logit = self.head(pooled, batch.emotions)
else:
logit = self.head(pooled)
return logit, None # [B, NUM_CLASSES]
где:
feature extractor
это GigaAM (v1_ssl, v2_ssl даёт качество сильно хуже в задаче распознавания эмоций, поэтому дальше нигде не рассматривается);пулинг либо
MaxPooling
, либоAttentiveStatsPooling + MultiHeadAttention
;голова -
Linear
слой для классификации.
При проведении эксперементов использовались различные функции потерь и их комбинации:
Label Smoouth + Weight + CrossEntropy
AM-Softmax
AAM-Softmax
RAM-Softmax
RAAM-Softmax
Подробнее про RAM-Softmax
RAMSoftMax - функция потерь, в которой добавляется отступ только если целевой логит не превосходит максимум нецелевых хотя бы на
. Т.е. внимание модели будет акцентироваться на сложных нецелевых логитах, игнорируя те, которые уже хорошо разделены.
Подробнее про RAAM-Softmax
В рамках иседования я решил попробовать совместить `RAM-Softmax` + `AAM-Softmax` и назвать её `RAAM-Softmax`. Интуиция для которой следующая: используется отступ под знаком косинуса, применяется `RAM`-маскирование: игнорируются легко разделённые примеры из "негативных" классов.
Optimizer использовался Adam
со следующими гиперпараметрами
_target_: torch.optim.Adam
betas:
- 0.9
- 0.98
eps: 1.0e-08
weight_decay: 0.01
Так как для обучения хотелось использовать разные learning rate для предобученной части модели и "классификационной головы", то нужно было разделить параметры модели на две группы
params = [
{"params": pretrained_params, "lr": self.config.pretrained_lr},
{"params": new_params, "lr": self.config.lr},
]
и при создании оптимизатора с помощью instantiate(self.config.optimizer, params=params)
возникала ошибка, из-за неправильной интепретации агрументов. Для решения данной ошибки пришлось сделать костыль и создавать optimizer
:
optimizer_class = hydra.utils.get_class(self.config.optimizer._target_)
optimizer_params = { key: value for key, value in self.config.optimizer.items() if key != "_target_"}
optimizer = optimizer_class(params, **optimizer_params)
В качестве scheduler
использовался ReduceLROnPlateau
, который отслеживал метрику loss/valid/avg
и, если не было улучшения в течении 10 эпох, то уменьшал lr в 2 раза:
_target_: torch.optim.lr_scheduler.ReduceLROnPlateau
mode: "min"
factor: 0.5
patience: 10
threshold: 0.0001
threshold_mode: "rel"
cooldown: 0
min_lr: 0.00000001
Так же для warmup
модели был определён линейный шедулер
self.warmup_scheduler = LinearLR(optimizer=optimizer, total_iters=self.config.warmup_steps, start_factor=self.config.start_factor)
Результаты
В результате проведения экперементов получена модель, которая распознаёт 7 эмоций в русской и английской речи.
Использование RAM-Softmax
или RAAM-Softmax
, в среднем, приводит к более лучшим результатам в классификации, чем другие функции потерь.
На визуализациях, полученных с помощью TSNE
для RAM-Softmax
достаточно хорошо виден результат разделения классов, для RAAM-Softmax
не наблюдается чётко выраженного разделения, но при этом примеры одного класса начинают групироваться вокруг различных центроидов. Возможно, эти центроиды образуются по "сложности" классификации примера.
Добавление англоязычных данных улучшают метрики модели на всех корпусах данных, кроме корпусов dusha
(думаю, это связано с тем, что дисбаланс данных на различных наборах данных слишком сильный, и модель начинает переобучаться под данные из датасета dusha
). Хочется отметить, что данных для классификации эмоций в русской речи очень мало.
Ниже представлены значения метрик по каждому датасету для всех моделей.
Результаты для датасета dialogs
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
angry_f1 |
neutral_f1 |
sad_f1 |
surprised_f1 |
|
---|---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.555556 |
0.482697 |
0.395062 |
0.0 |
0.702929 |
0.0 |
0.0 |
1 |
emov1_baseline |
16 |
0.544444 |
0.462893 |
0.294118 |
0.0 |
0.709677 |
0.0 |
0.0 |
2 |
emov1_baseline |
19 |
0.566667 |
0.471453 |
0.271186 |
0.0 |
0.715385 |
0.0 |
0.0666667 |
3 |
emov1_baseline |
20 |
0.555556 |
0.476661 |
0.3125 |
0.0 |
0.709163 |
0.0 |
0.0606061 |
4 |
emov1_baseline_aam |
19 |
0.561111 |
0.47537 |
0.361111 |
0.0 |
0.704 |
0.0 |
0.0 |
5 |
emov1_baseline_aam |
22 |
0.55 |
0.445208 |
0.229508 |
0.0 |
0.704981 |
0.0 |
0.0 |
6 |
emov1_baseline_aam |
28 |
0.533333 |
0.473909 |
0.479167 |
0.0 |
0.651786 |
0.0 |
0.0 |
7 |
emov1_baseline_aam |
28 |
0.561111 |
0.477717 |
0.383562 |
0.0 |
0.698795 |
0.0 |
0.0 |
8 |
emov1_baseline_am |
10 |
0.55 |
0.403105 |
0.0 |
0.5 |
0.720588 |
0.0 |
0.0 |
9 |
emov1_baseline_am |
11 |
0.516667 |
0.41642 |
0.135593 |
0.0 |
0.692607 |
0.0 |
0.0 |
10 |
emov1_baseline_am |
13 |
0.544444 |
0.431695 |
0.148148 |
0.0 |
0.714829 |
0.0 |
0.0 |
11 |
emov1_baseline_am |
16 |
0.522222 |
0.446003 |
0.272727 |
0.0 |
0.688259 |
0.0 |
0.0 |
12 |
emov1_baseline_raam |
13 |
0.516667 |
0.448074 |
0.293333 |
0.0 |
0.683333 |
0.0 |
0.0 |
13 |
emov1_baseline_raam |
19 |
0.511111 |
0.460707 |
0.344828 |
0.0 |
0.684444 |
0.0 |
0.0 |
14 |
emov1_baseline_raam |
22 |
0.494444 |
0.447228 |
0.333333 |
0.133333 |
0.663677 |
0.0 |
0.0 |
15 |
emov1_baseline_raam |
27 |
0.555556 |
0.468426 |
0.338028 |
0.0 |
0.701195 |
0.0 |
0.0 |
16 |
emov1_baseline_ram |
11 |
0.555556 |
0.440825 |
0.181818 |
0.5 |
0.712121 |
0.0 |
0.0 |
17 |
emov1_baseline_ram |
13 |
0.561111 |
0.455913 |
0.233333 |
1.0 |
0.712644 |
0.0 |
0.0 |
18 |
emov1_baseline_ram |
22 |
0.561111 |
0.462881 |
0.271186 |
0.333333 |
0.715953 |
0.0 |
0.0 |
19 |
emov1_baseline_ram |
26 |
0.522222 |
0.459794 |
0.3125 |
0.181818 |
0.694561 |
0.0 |
0.0 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.522222 |
0.427259 |
0.206897 |
0.0 |
0.682171 |
0.0 |
0.0 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.533333 |
0.496132 |
0.395062 |
0.0 |
0.675556 |
0.0 |
0.177778 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.538889 |
0.469739 |
0.246154 |
0.0 |
0.696356 |
0.0 |
0.157895 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.483333 |
0.453598 |
0.28125 |
0.0 |
0.640351 |
0.0 |
0.2 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.55 |
0.478997 |
0.373333 |
0.0 |
0.705394 |
0.0 |
0.0 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.55 |
0.461964 |
0.323529 |
0.0 |
0.695652 |
0.0 |
0.0 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.533333 |
0.443264 |
0.268657 |
0.0 |
0.685039 |
0.0 |
0.0 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.538889 |
0.464995 |
0.365854 |
0.0 |
0.683333 |
0.0 |
0.0 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.533333 |
0.403371 |
0.0454545 |
0.285714 |
0.70412 |
0.0 |
0.0 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.533333 |
0.457875 |
0.3 |
0.181818 |
0.696356 |
0.0 |
0.0 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.494444 |
0.420749 |
0.202899 |
0.0 |
0.672131 |
0.0 |
0.0 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.511111 |
0.439335 |
0.169492 |
0.0 |
0.702041 |
0.0 |
0.0606061 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.527778 |
0.477713 |
0.320988 |
0.0 |
0.67234 |
0.0 |
0.181818 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.505556 |
0.469248 |
0.452174 |
0.285714 |
0.633166 |
0.0 |
0.0645161 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.533333 |
0.470887 |
0.386364 |
1.0 |
0.675325 |
0.0 |
0.0 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.572222 |
0.51455 |
0.428571 |
1.0 |
0.718615 |
0.0 |
0.0606061 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.505556 |
0.400165 |
0.037037 |
0.285714 |
0.684825 |
0.0 |
0.0588235 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.5 |
0.429075 |
0.179104 |
0.0 |
0.663968 |
0.0 |
0.114286 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.494444 |
0.433504 |
0.0784314 |
0.0 |
0.678112 |
0.0 |
0.238806 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.527778 |
0.47793 |
0.361446 |
0.0 |
0.675325 |
0.0 |
0.114286 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.538889 |
0.439673 |
0.1875 |
0.4 |
0.708661 |
0.0 |
0.0 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.533333 |
0.40955 |
0.0784314 |
0.5 |
0.699248 |
0.0 |
0.0 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.505556 |
0.44108 |
0.292683 |
1.0 |
0.661017 |
0.0 |
0.0 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.55 |
0.447071 |
0.148148 |
0.4 |
0.72093 |
0.0 |
0.0606061 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.511111 |
0.401662 |
0.0 |
0.0769231 |
0.722222 |
0.0 |
0.0 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.55 |
0.413838 |
0.0816327 |
0.0 |
0.710623 |
0.0 |
0.0 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.505556 |
0.411988 |
0.0701754 |
0.181818 |
0.696 |
0.285714 |
0.0 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.511111 |
0.389267 |
0.0392157 |
0.0 |
0.684211 |
0.0 |
0.0 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.533333 |
0.476379 |
0.235294 |
0.0 |
0.694215 |
0.0 |
0.222222 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.544444 |
0.491992 |
0.277778 |
0.0 |
0.694561 |
0.0 |
0.25641 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.527778 |
0.508288 |
0.314286 |
0.0 |
0.694444 |
0.0 |
0.305085 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.477778 |
0.440747 |
0.0425532 |
0.0 |
0.679803 |
0.0 |
0.329897 |
Результаты для датасета dusha
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
angry_f1 |
neutral_f1 |
sad_f1 |
|
---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.539521 |
0.566747 |
0.422551 |
0.430138 |
0.621143 |
0.50665 |
1 |
emov1_baseline |
16 |
0.625668 |
0.64855 |
0.450255 |
0.501002 |
0.7299 |
0.513828 |
2 |
emov1_baseline |
19 |
0.526848 |
0.544893 |
0.471596 |
0.531222 |
0.576048 |
0.465344 |
3 |
emov1_baseline |
20 |
0.592045 |
0.615302 |
0.449353 |
0.497765 |
0.679574 |
0.514695 |
4 |
emov1_baseline_aam |
19 |
0.588162 |
0.609045 |
0.462082 |
0.515309 |
0.672728 |
0.485474 |
5 |
emov1_baseline_aam |
22 |
0.544942 |
0.571255 |
0.395865 |
0.489917 |
0.632582 |
0.465823 |
6 |
emov1_baseline_aam |
28 |
0.524211 |
0.543947 |
0.44798 |
0.515818 |
0.583333 |
0.451944 |
7 |
emov1_baseline_aam |
28 |
0.618343 |
0.638357 |
0.446694 |
0.50607 |
0.717141 |
0.50112 |
8 |
emov1_baseline_am |
10 |
0.654238 |
0.670395 |
0.523527 |
0.558625 |
0.737757 |
0.542641 |
9 |
emov1_baseline_am |
11 |
0.574463 |
0.593158 |
0.501152 |
0.549986 |
0.635981 |
0.493953 |
10 |
emov1_baseline_am |
13 |
0.603692 |
0.623421 |
0.50494 |
0.509411 |
0.679286 |
0.528768 |
11 |
emov1_baseline_am |
16 |
0.587649 |
0.608245 |
0.472836 |
0.519796 |
0.662848 |
0.512576 |
12 |
emov1_baseline_raam |
13 |
0.643689 |
0.662122 |
0.496679 |
0.545888 |
0.733689 |
0.530143 |
13 |
emov1_baseline_raam |
19 |
0.644202 |
0.661548 |
0.503097 |
0.562608 |
0.730552 |
0.525583 |
14 |
emov1_baseline_raam |
22 |
0.623544 |
0.645796 |
0.442804 |
0.520299 |
0.718448 |
0.536201 |
15 |
emov1_baseline_raam |
27 |
0.611384 |
0.636526 |
0.422949 |
0.529217 |
0.712017 |
0.509875 |
16 |
emov1_baseline_ram |
11 |
0.597026 |
0.617052 |
0.476786 |
0.508371 |
0.671999 |
0.535196 |
17 |
emov1_baseline_ram |
13 |
0.632408 |
0.651233 |
0.486346 |
0.534669 |
0.715642 |
0.548856 |
18 |
emov1_baseline_ram |
22 |
0.607721 |
0.629987 |
0.440834 |
0.545613 |
0.693035 |
0.527043 |
19 |
emov1_baseline_ram |
26 |
0.589334 |
0.610222 |
0.467028 |
0.553216 |
0.665196 |
0.497983 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.446268 |
0.4548 |
0.438272 |
0.555166 |
0.450304 |
0.420772 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.567211 |
0.589308 |
0.455275 |
0.537455 |
0.638834 |
0.491333 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.617903 |
0.637381 |
0.495033 |
0.553633 |
0.700798 |
0.506141 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.529412 |
0.544777 |
0.4585 |
0.538855 |
0.573845 |
0.47642 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.575855 |
0.597598 |
0.434194 |
0.487603 |
0.657933 |
0.507235 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.516226 |
0.534078 |
0.429367 |
0.473134 |
0.569972 |
0.481766 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.485312 |
0.496341 |
0.453264 |
0.509859 |
0.513063 |
0.442865 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.534393 |
0.554275 |
0.471393 |
0.50534 |
0.594249 |
0.465312 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.636583 |
0.655785 |
0.498708 |
0.52944 |
0.717126 |
0.567781 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.612409 |
0.63394 |
0.494805 |
0.504921 |
0.689707 |
0.560609 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.620101 |
0.639859 |
0.486569 |
0.562696 |
0.69875 |
0.529506 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.644641 |
0.662643 |
0.49633 |
0.538863 |
0.729325 |
0.556094 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.567358 |
0.587109 |
0.456508 |
0.53043 |
0.635448 |
0.495107 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.554245 |
0.574547 |
0.454137 |
0.498134 |
0.622554 |
0.490371 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.544869 |
0.56476 |
0.454518 |
0.514511 |
0.607806 |
0.47928 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.582668 |
0.606739 |
0.407789 |
0.521027 |
0.670979 |
0.505197 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.651015 |
0.666857 |
0.500671 |
0.542813 |
0.736929 |
0.546325 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.572632 |
0.594481 |
0.446066 |
0.562733 |
0.640091 |
0.508441 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.647498 |
0.668578 |
0.455434 |
0.551764 |
0.738706 |
0.569808 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.623617 |
0.644158 |
0.481649 |
0.579499 |
0.701061 |
0.53952 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.634239 |
0.653206 |
0.476862 |
0.566352 |
0.714248 |
0.552904 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.66779 |
0.683781 |
0.516442 |
0.562773 |
0.752573 |
0.567339 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.62435 |
0.651343 |
0.421029 |
0.592857 |
0.71535 |
0.551623 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.582228 |
0.601016 |
0.504709 |
0.577068 |
0.641321 |
0.502808 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.657314 |
0.673966 |
0.462842 |
0.542364 |
0.747214 |
0.570248 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.629111 |
0.649381 |
0.494012 |
0.574526 |
0.711428 |
0.525672 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.593656 |
0.613633 |
0.487821 |
0.525432 |
0.662127 |
0.53776 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.665079 |
0.680817 |
0.503226 |
0.574799 |
0.74731 |
0.570431 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.710571 |
0.724021 |
0.524089 |
0.604069 |
0.804592 |
0.576408 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.65856 |
0.678493 |
0.54174 |
0.598381 |
0.744283 |
0.532005 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.681928 |
0.701029 |
0.447262 |
0.571953 |
0.785012 |
0.575231 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.632921 |
0.654514 |
0.516946 |
0.54027 |
0.712045 |
0.563854 |
Результаты для датасета expresso
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
other_f1 |
neutral_f1 |
sad_f1 |
|
---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.918261 |
0.919042 |
0.927132 |
0.937207 |
0.82 |
0.937063 |
1 |
emov1_baseline |
16 |
0.926087 |
0.925688 |
0.945092 |
0.939716 |
0.844291 |
0.918149 |
2 |
emov1_baseline |
19 |
0.951304 |
0.951113 |
0.961474 |
0.960945 |
0.904762 |
0.941558 |
3 |
emov1_baseline |
20 |
0.953913 |
0.953671 |
0.966997 |
0.961086 |
0.905405 |
0.948805 |
4 |
emov1_baseline_aam |
19 |
0.92087 |
0.921011 |
0.925424 |
0.936094 |
0.841424 |
0.937931 |
5 |
emov1_baseline_aam |
22 |
0.925217 |
0.925616 |
0.935065 |
0.943571 |
0.861538 |
0.906475 |
6 |
emov1_baseline_aam |
28 |
0.930435 |
0.929913 |
0.932258 |
0.945255 |
0.861111 |
0.939189 |
7 |
emov1_baseline_aam |
28 |
0.929565 |
0.929558 |
0.932907 |
0.948742 |
0.843854 |
0.94 |
8 |
emov1_baseline_am |
10 |
0.944348 |
0.945629 |
0.945578 |
0.963168 |
0.872727 |
0.955932 |
9 |
emov1_baseline_am |
11 |
0.953043 |
0.953179 |
0.958678 |
0.967919 |
0.886731 |
0.955932 |
10 |
emov1_baseline_am |
13 |
0.93913 |
0.940353 |
0.934028 |
0.956999 |
0.86747 |
0.966443 |
11 |
emov1_baseline_am |
16 |
0.947826 |
0.947414 |
0.957516 |
0.96337 |
0.854237 |
0.963455 |
12 |
emov1_baseline_raam |
13 |
0.883478 |
0.881926 |
0.857143 |
0.917606 |
0.756579 |
0.929293 |
13 |
emov1_baseline_raam |
19 |
0.887826 |
0.88496 |
0.896024 |
0.921692 |
0.760148 |
0.856061 |
14 |
emov1_baseline_raam |
22 |
0.923478 |
0.925309 |
0.93086 |
0.947955 |
0.813056 |
0.945578 |
15 |
emov1_baseline_raam |
27 |
0.923478 |
0.925692 |
0.932231 |
0.943541 |
0.827586 |
0.94702 |
16 |
emov1_baseline_ram |
11 |
0.944348 |
0.944411 |
0.959612 |
0.952646 |
0.862745 |
0.966443 |
17 |
emov1_baseline_ram |
13 |
0.949565 |
0.950262 |
0.968699 |
0.957009 |
0.873065 |
0.966667 |
18 |
emov1_baseline_ram |
22 |
0.949565 |
0.949649 |
0.970297 |
0.958106 |
0.88746 |
0.940351 |
19 |
emov1_baseline_ram |
26 |
0.956522 |
0.957442 |
0.965742 |
0.963922 |
0.895425 |
0.979866 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.90087 |
0.899223 |
0.887701 |
0.919897 |
0.821429 |
0.926174 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.935652 |
0.935604 |
0.945274 |
0.957466 |
0.851613 |
0.921986 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.933913 |
0.934235 |
0.935811 |
0.954545 |
0.847134 |
0.945578 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.922609 |
0.922486 |
0.917647 |
0.945921 |
0.867797 |
0.902821 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.935652 |
0.935425 |
0.943274 |
0.956999 |
0.854305 |
0.923611 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.94087 |
0.941815 |
0.942149 |
0.96242 |
0.881789 |
0.927336 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.935652 |
0.936534 |
0.935811 |
0.962212 |
0.850153 |
0.932432 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.930435 |
0.929721 |
0.939444 |
0.954095 |
0.837838 |
0.914894 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.94087 |
0.941667 |
0.965854 |
0.951311 |
0.848297 |
0.952381 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.946957 |
0.946945 |
0.956376 |
0.954955 |
0.880795 |
0.965753 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.953043 |
0.953097 |
0.963816 |
0.962351 |
0.878689 |
0.973154 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.94087 |
0.941246 |
0.961474 |
0.949027 |
0.86262 |
0.951768 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.916522 |
0.916532 |
0.924031 |
0.932701 |
0.803987 |
0.956522 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.936522 |
0.937412 |
0.936317 |
0.955005 |
0.85625 |
0.957929 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.950435 |
0.950971 |
0.964824 |
0.959633 |
0.872964 |
0.970492 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.909565 |
0.913679 |
0.943144 |
0.930674 |
0.782609 |
0.925267 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.921739 |
0.921196 |
0.947712 |
0.936479 |
0.817568 |
0.917241 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.922609 |
0.923262 |
0.95114 |
0.937618 |
0.810127 |
0.929487 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.931304 |
0.931558 |
0.949097 |
0.947075 |
0.834951 |
0.937705 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.92 |
0.919552 |
0.931034 |
0.941613 |
0.80678 |
0.930556 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.93913 |
0.93929 |
0.940625 |
0.955702 |
0.847682 |
0.969697 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.948696 |
0.948796 |
0.960526 |
0.959559 |
0.871622 |
0.964169 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.92087 |
0.919124 |
0.946844 |
0.932278 |
0.798535 |
0.9375 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.941739 |
0.942603 |
0.959083 |
0.952113 |
0.860759 |
0.957655 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.906087 |
0.907642 |
0.93823 |
0.937843 |
0.772861 |
0.873134 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.924348 |
0.925339 |
0.942373 |
0.945055 |
0.820988 |
0.92517 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.915652 |
0.916018 |
0.939641 |
0.942149 |
0.817073 |
0.874074 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.943478 |
0.942894 |
0.95315 |
0.953425 |
0.858131 |
0.969697 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.196522 |
0.162445 |
0.467497 |
0.0180505 |
0.161121 |
0.0718563 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.233913 |
0.178731 |
0.448642 |
0.0418848 |
0.187919 |
0.120879 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.204348 |
0.163741 |
0.461899 |
0.0353357 |
0.120219 |
0.0718563 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.18 |
0.177661 |
0.403125 |
0.0858086 |
0.198381 |
0.0352941 |
Результаты для датасета msp_podcast
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
disgusted_f1 |
angry_f1 |
fearful_f1 |
other_f1 |
neutral_f1 |
sad_f1 |
surprised_f1 |
|
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.337011 |
0.268659 |
0.393651 |
0.0 |
0.463977 |
0.0 |
0.0181818 |
0.3286 |
0.0 |
0.0 |
1 |
emov1_baseline |
16 |
0.368276 |
0.301342 |
0.422866 |
0.0 |
0.521277 |
0.0 |
0.0 |
0.383048 |
0.0373832 |
0.0 |
2 |
emov1_baseline |
19 |
0.347586 |
0.299376 |
0.407273 |
0.0 |
0.515444 |
0.0253165 |
0.0163934 |
0.353377 |
0.0857143 |
0.044586 |
3 |
emov1_baseline |
20 |
0.347126 |
0.289007 |
0.388571 |
0.0 |
0.507868 |
0.0 |
0.0 |
0.338605 |
0.0529801 |
0.0617284 |
4 |
emov1_baseline_aam |
19 |
0.35954 |
0.293177 |
0.416855 |
0.0 |
0.5 |
0.0 |
0.0173913 |
0.374138 |
0.0181818 |
0.0 |
5 |
emov1_baseline_aam |
22 |
0.370575 |
0.30378 |
0.432584 |
0.0 |
0.522927 |
0.0 |
0.0 |
0.386172 |
0.0186916 |
0.0 |
6 |
emov1_baseline_aam |
28 |
0.362759 |
0.293796 |
0.409241 |
0.0 |
0.506912 |
0.0 |
0.0166667 |
0.378281 |
0.0168067 |
0.0 |
7 |
emov1_baseline_aam |
28 |
0.36 |
0.297703 |
0.404908 |
0.0 |
0.493882 |
0.0 |
0.0168067 |
0.415439 |
0.0 |
0.0 |
8 |
emov1_baseline_am |
10 |
0.349425 |
0.287762 |
0.335238 |
0.0 |
0.515241 |
0.0 |
0.017094 |
0.407717 |
0.0672269 |
0.0 |
9 |
emov1_baseline_am |
11 |
0.341149 |
0.283446 |
0.395722 |
0.0 |
0.506616 |
0.0 |
0.0 |
0.333333 |
0.0816327 |
0.00706714 |
10 |
emov1_baseline_am |
13 |
0.346667 |
0.285103 |
0.351074 |
0.0 |
0.503145 |
0.0 |
0.0142857 |
0.402837 |
0.0162602 |
0.0 |
11 |
emov1_baseline_am |
16 |
0.341149 |
0.286228 |
0.381887 |
0.0 |
0.500511 |
0.0 |
0.0142857 |
0.376563 |
0.030303 |
0.0 |
12 |
emov1_baseline_raam |
13 |
0.336092 |
0.277726 |
0.351307 |
0.0 |
0.45679 |
0.0 |
0.032 |
0.407018 |
0.036036 |
0.0 |
13 |
emov1_baseline_raam |
19 |
0.347126 |
0.284426 |
0.395689 |
0.0 |
0.48753 |
0.0 |
0.0 |
0.355597 |
0.0650407 |
0.0135135 |
14 |
emov1_baseline_raam |
22 |
0.343448 |
0.278799 |
0.373191 |
0.0 |
0.479724 |
0.0 |
0.0 |
0.381927 |
0.0 |
0.0 |
15 |
emov1_baseline_raam |
27 |
0.333793 |
0.289299 |
0.366744 |
0.0 |
0.451923 |
0.0 |
0.0347826 |
0.396346 |
0.0504202 |
0.0831025 |
16 |
emov1_baseline_ram |
11 |
0.358621 |
0.288378 |
0.427861 |
0.0 |
0.504886 |
0.0 |
0.0 |
0.338742 |
0.030303 |
0.0 |
17 |
emov1_baseline_ram |
13 |
0.371494 |
0.303587 |
0.412926 |
0.0 |
0.51845 |
0.0 |
0.0 |
0.413074 |
0.0 |
0.0 |
18 |
emov1_baseline_ram |
22 |
0.35954 |
0.297228 |
0.411541 |
0.0 |
0.505561 |
0.0 |
0.0 |
0.391534 |
0.0178571 |
0.00696864 |
19 |
emov1_baseline_ram |
26 |
0.337931 |
0.284455 |
0.38015 |
0.0 |
0.486275 |
0.0 |
0.0 |
0.384668 |
0.0242424 |
0.00660066 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.33977 |
0.314189 |
0.398034 |
0.0264901 |
0.478873 |
0.0 |
0.0142857 |
0.397083 |
0.119048 |
0.143158 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.324598 |
0.309508 |
0.390077 |
0.0842105 |
0.513327 |
0.0273973 |
0.0487805 |
0.318232 |
0.0338983 |
0.186125 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.338391 |
0.316241 |
0.373418 |
0.0581395 |
0.492078 |
0.0363636 |
0.0350877 |
0.379613 |
0.057971 |
0.200913 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.31954 |
0.298791 |
0.37931 |
0.0650888 |
0.513514 |
0.0517241 |
0.0 |
0.276215 |
0.0606061 |
0.20743 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.355862 |
0.302597 |
0.392931 |
0.0 |
0.504407 |
0.0 |
0.0 |
0.353535 |
0.0175439 |
0.151329 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.378391 |
0.327315 |
0.435675 |
0.0 |
0.557118 |
0.0 |
0.0 |
0.366197 |
0.0338983 |
0.148649 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.362299 |
0.331141 |
0.410822 |
0.0 |
0.563307 |
0.0 |
0.0 |
0.342222 |
0.0939597 |
0.232843 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.354943 |
0.323443 |
0.400385 |
0.0 |
0.535097 |
0.0 |
0.0163934 |
0.391687 |
0.0 |
0.179739 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.281379 |
0.234386 |
0.145015 |
0.0 |
0.488636 |
0.0 |
0.0 |
0.260664 |
0.0 |
0.262887 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.289195 |
0.26361 |
0.258564 |
0.0114286 |
0.484065 |
0.0152672 |
0.034188 |
0.297324 |
0.0 |
0.207268 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.313563 |
0.278337 |
0.379714 |
0.0446429 |
0.460648 |
0.0 |
0.0 |
0.333007 |
0.0 |
0.0831169 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.305287 |
0.279934 |
0.288325 |
0.0330033 |
0.498246 |
0.0 |
0.0 |
0.347107 |
0.0185185 |
0.167969 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.330115 |
0.309172 |
0.365064 |
0.0512821 |
0.522442 |
0.0598291 |
0.0 |
0.350249 |
0.0178571 |
0.186047 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.328276 |
0.302444 |
0.385933 |
0.0 |
0.521127 |
0.057377 |
0.0 |
0.323851 |
0.0504202 |
0.15917 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.332414 |
0.311462 |
0.390698 |
0.0627803 |
0.520699 |
0.0529801 |
0.0178571 |
0.352352 |
0.0437956 |
0.137809 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.330575 |
0.317097 |
0.374875 |
0.0875421 |
0.524379 |
0.139706 |
0.0 |
0.338591 |
0.0508475 |
0.196078 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.356322 |
0.288573 |
0.290576 |
0.0 |
0.520179 |
0.0190476 |
0.0 |
0.409622 |
0.0 |
0.0994152 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.336552 |
0.308151 |
0.37265 |
0.0519481 |
0.48855 |
0.112994 |
0.0 |
0.386163 |
0.0 |
0.149688 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.333333 |
0.312217 |
0.401739 |
0.0803213 |
0.527103 |
0.117647 |
0.0185185 |
0.304147 |
0.0 |
0.188312 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.349425 |
0.314992 |
0.402062 |
0.0655738 |
0.513004 |
0.0882353 |
0.0175439 |
0.372753 |
0.0 |
0.126582 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.306667 |
0.270568 |
0.255656 |
0.0 |
0.490694 |
0.0 |
0.0183486 |
0.351421 |
0.0 |
0.174298 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.329655 |
0.296814 |
0.357912 |
0.0242424 |
0.523383 |
0.0173913 |
0.0 |
0.351421 |
0.0186916 |
0.123711 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.305747 |
0.250824 |
0.408528 |
0.0869565 |
0.423898 |
0.0204082 |
0.0 |
0.220207 |
0.0192308 |
0.0493151 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.31954 |
0.297028 |
0.346715 |
0.090566 |
0.48227 |
0.0 |
0.0 |
0.37931 |
0.0186916 |
0.138889 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.325057 |
0.254954 |
0.285714 |
0.0 |
0.461432 |
0.0 |
0.0186916 |
0.37538 |
0.0 |
0.00687285 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.315402 |
0.273269 |
0.378878 |
0.0 |
0.441454 |
0.0 |
0.0172414 |
0.355838 |
0.0 |
0.0520833 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.322759 |
0.291901 |
0.35059 |
0.0 |
0.501845 |
0.0 |
0.0408163 |
0.359673 |
0.0 |
0.128571 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.342069 |
0.309732 |
0.373514 |
0.0315789 |
0.511677 |
0.0 |
0.0 |
0.389294 |
0.0 |
0.156556 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.104828 |
0.0985822 |
0.143204 |
0.113445 |
0.0694698 |
0.0 |
0.0515222 |
0.178462 |
0.0 |
0.0 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.148046 |
0.14673 |
0.223919 |
0.0559006 |
0.109272 |
0.0377358 |
0.0725275 |
0.274272 |
0.0 |
0.0 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.108046 |
0.0896537 |
0.223206 |
0.103751 |
0.0379507 |
0.0 |
0.0309278 |
0.0965517 |
0.0 |
0.0 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.133793 |
0.142338 |
0.150565 |
0.0969388 |
0.227222 |
0.0150376 |
0.0727273 |
0.166163 |
0.0 |
0.0754717 |
Результаты для датасета repv-s
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
angry_f1 |
other_f1 |
sad_f1 |
|
---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.392857 |
0.409105 |
0.2 |
0.533333 |
0.428571 |
0.461538 |
1 |
emov1_baseline |
16 |
0.25 |
0.232287 |
0.25 |
0.307692 |
0.315789 |
0.0 |
2 |
emov1_baseline |
19 |
0.285714 |
0.261439 |
0.25 |
0.4 |
0.133333 |
0.347826 |
3 |
emov1_baseline |
20 |
0.25 |
0.250186 |
0.285714 |
0.2 |
0.3 |
0.181818 |
4 |
emov1_baseline_aam |
19 |
0.25 |
0.265693 |
0.25 |
0.545455 |
0.266667 |
0.0 |
5 |
emov1_baseline_aam |
22 |
0.214286 |
0.218487 |
0.352941 |
0.444444 |
0.133333 |
0.0 |
6 |
emov1_baseline_aam |
28 |
0.285714 |
0.294718 |
0.470588 |
0.666667 |
0.142857 |
0.0 |
7 |
emov1_baseline_aam |
28 |
0.25 |
0.272222 |
0.4 |
0.5 |
0.222222 |
0.0 |
8 |
emov1_baseline_am |
10 |
0.214286 |
0.204082 |
0.0 |
0.428571 |
0.142857 |
0.285714 |
9 |
emov1_baseline_am |
11 |
0.285714 |
0.237575 |
0.0 |
0.4 |
0.142857 |
0.470588 |
10 |
emov1_baseline_am |
13 |
0.214286 |
0.198079 |
0.0 |
0.352941 |
0.142857 |
0.333333 |
11 |
emov1_baseline_am |
16 |
0.214286 |
0.215152 |
0.0 |
0.266667 |
0.333333 |
0.181818 |
12 |
emov1_baseline_raam |
13 |
0.321429 |
0.347346 |
0.222222 |
0.363636 |
0.421053 |
0.333333 |
13 |
emov1_baseline_raam |
19 |
0.285714 |
0.327734 |
0.428571 |
0.4 |
0.153846 |
0.444444 |
14 |
emov1_baseline_raam |
22 |
0.285714 |
0.314269 |
0.363636 |
0.461538 |
0.166667 |
0.363636 |
15 |
emov1_baseline_raam |
27 |
0.25 |
0.247024 |
0.375 |
0.0 |
0.2 |
0.444444 |
16 |
emov1_baseline_ram |
11 |
0.25 |
0.199038 |
0.153846 |
0.375 |
0.0 |
0.4 |
17 |
emov1_baseline_ram |
13 |
0.178571 |
0.188383 |
0.166667 |
0.307692 |
0.142857 |
0.166667 |
18 |
emov1_baseline_ram |
22 |
0.25 |
0.235819 |
0.375 |
0.333333 |
0.235294 |
0.0 |
19 |
emov1_baseline_ram |
26 |
0.357143 |
0.347905 |
0.25 |
0.363636 |
0.380952 |
0.375 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.321429 |
0.309524 |
0.0 |
0.444444 |
0.333333 |
0.444444 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.357143 |
0.363509 |
0.266667 |
0.6 |
0.347826 |
0.25 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.285714 |
0.280068 |
0.181818 |
0.363636 |
0.347826 |
0.181818 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.285714 |
0.278788 |
0.266667 |
0.545455 |
0.133333 |
0.266667 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.25 |
0.255102 |
0.166667 |
0.5 |
0.142857 |
0.285714 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.25 |
0.255364 |
0.0 |
0.461538 |
0.266667 |
0.285714 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.214286 |
0.214556 |
0.0 |
0.181818 |
0.266667 |
0.375 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.178571 |
0.150794 |
0.0 |
0.0 |
0.222222 |
0.333333 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.321429 |
0.288265 |
0.0 |
0.5 |
0.25 |
0.428571 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.357143 |
0.35454 |
0.166667 |
0.5 |
0.315789 |
0.461538 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.285714 |
0.314199 |
0.307692 |
0.5 |
0.210526 |
0.307692 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.321429 |
0.294334 |
0.0 |
0.375 |
0.380952 |
0.363636 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.285714 |
0.229592 |
0.142857 |
0.428571 |
0.0 |
0.5 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.25 |
0.208929 |
0.266667 |
0.333333 |
0.0 |
0.375 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.25 |
0.226679 |
0.181818 |
0.266667 |
0.153846 |
0.352941 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.285714 |
0.278414 |
0.142857 |
0.5 |
0.153846 |
0.4 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.321429 |
0.268797 |
0.166667 |
0.666667 |
0.0 |
0.421053 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.392857 |
0.347368 |
0.4 |
0.8 |
0.0 |
0.421053 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.285714 |
0.27551 |
0.285714 |
0.666667 |
0.0 |
0.333333 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.321429 |
0.3 |
0.4 |
0.6 |
0.0 |
0.4 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.285714 |
0.261735 |
0.25 |
0.571429 |
0.0 |
0.4 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.178571 |
0.151648 |
0.307692 |
0.4 |
0.0 |
0.0 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.357143 |
0.345549 |
0.434783 |
0.5 |
0.166667 |
0.4 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.25 |
0.254175 |
0.444444 |
0.25 |
0.153846 |
0.235294 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.25 |
0.219388 |
0.166667 |
0.571429 |
0.0 |
0.285714 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.25 |
0.233707 |
0.0 |
0.363636 |
0.153846 |
0.470588 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.25 |
0.257542 |
0.181818 |
0.363636 |
0.153846 |
0.4 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.214286 |
0.224097 |
0.0 |
0.5 |
0.142857 |
0.307692 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.285714 |
0.305382 |
0.363636 |
0.545455 |
0.125 |
0.307692 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.25 |
0.260902 |
0.2 |
0.5 |
0.210526 |
0.166667 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.214286 |
0.222715 |
0.235294 |
0.4 |
0.133333 |
0.181818 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.285714 |
0.241758 |
0.0 |
0.461538 |
0.4 |
0.0 |
Результаты для датасета repv
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
angry_f1 |
other_f1 |
sad_f1 |
|
---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.390663 |
0.388363 |
0.280702 |
0.48913 |
0.473239 |
0.198582 |
1 |
emov1_baseline |
16 |
0.429975 |
0.426333 |
0.336134 |
0.551351 |
0.493075 |
0.234375 |
2 |
emov1_baseline |
19 |
0.380835 |
0.388699 |
0.306306 |
0.484472 |
0.392523 |
0.344498 |
3 |
emov1_baseline |
20 |
0.395577 |
0.399204 |
0.288288 |
0.462428 |
0.463277 |
0.291139 |
4 |
emov1_baseline_aam |
19 |
0.373464 |
0.383065 |
0.366667 |
0.4125 |
0.451977 |
0.22973 |
5 |
emov1_baseline_aam |
22 |
0.39312 |
0.38848 |
0.276423 |
0.425806 |
0.496084 |
0.222222 |
6 |
emov1_baseline_aam |
28 |
0.371007 |
0.37442 |
0.283186 |
0.425 |
0.448179 |
0.245614 |
7 |
emov1_baseline_aam |
28 |
0.371007 |
0.368919 |
0.290323 |
0.357143 |
0.494845 |
0.192 |
8 |
emov1_baseline_am |
10 |
0.329238 |
0.35356 |
0.22449 |
0.426966 |
0.377483 |
0.327485 |
9 |
emov1_baseline_am |
11 |
0.341523 |
0.344273 |
0.230088 |
0.415301 |
0.324138 |
0.396135 |
10 |
emov1_baseline_am |
13 |
0.36855 |
0.377722 |
0.189474 |
0.431579 |
0.428135 |
0.363636 |
11 |
emov1_baseline_am |
16 |
0.34398 |
0.35715 |
0.30303 |
0.414201 |
0.365325 |
0.322981 |
12 |
emov1_baseline_raam |
13 |
0.41769 |
0.388376 |
0.214286 |
0.405063 |
0.547564 |
0.188034 |
13 |
emov1_baseline_raam |
19 |
0.390663 |
0.396063 |
0.259259 |
0.464646 |
0.448485 |
0.324675 |
14 |
emov1_baseline_raam |
22 |
0.410319 |
0.396475 |
0.273684 |
0.5 |
0.481481 |
0.214876 |
15 |
emov1_baseline_raam |
27 |
0.395577 |
0.399745 |
0.363636 |
0.4 |
0.479564 |
0.269504 |
16 |
emov1_baseline_ram |
11 |
0.402948 |
0.39894 |
0.31068 |
0.450867 |
0.489474 |
0.233577 |
17 |
emov1_baseline_ram |
13 |
0.39312 |
0.392577 |
0.329897 |
0.429448 |
0.497409 |
0.195489 |
18 |
emov1_baseline_ram |
22 |
0.390663 |
0.400029 |
0.355556 |
0.448718 |
0.459384 |
0.266667 |
19 |
emov1_baseline_ram |
26 |
0.398034 |
0.402353 |
0.342342 |
0.447368 |
0.48 |
0.248366 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.422604 |
0.414998 |
0.371681 |
0.362069 |
0.524752 |
0.285714 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.366093 |
0.378061 |
0.345455 |
0.415094 |
0.438889 |
0.244898 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.351351 |
0.361686 |
0.32 |
0.368098 |
0.430168 |
0.251572 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.378378 |
0.386921 |
0.342857 |
0.450549 |
0.412121 |
0.305085 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.378378 |
0.390148 |
0.344828 |
0.423841 |
0.435028 |
0.301205 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.39312 |
0.394648 |
0.356589 |
0.413793 |
0.467742 |
0.25974 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.400491 |
0.40181 |
0.347107 |
0.438356 |
0.47027 |
0.270588 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.410319 |
0.402001 |
0.36036 |
0.378788 |
0.509804 |
0.244898 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.398034 |
0.394718 |
0.254902 |
0.471264 |
0.497354 |
0.21875 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.410319 |
0.403769 |
0.307692 |
0.465409 |
0.498741 |
0.225564 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.383292 |
0.388354 |
0.272727 |
0.476821 |
0.47619 |
0.211268 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.39312 |
0.397878 |
0.285714 |
0.4875 |
0.481481 |
0.225352 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.388206 |
0.395059 |
0.296875 |
0.472527 |
0.40625 |
0.366864 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.375921 |
0.381504 |
0.35 |
0.42623 |
0.379747 |
0.362637 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.375921 |
0.383793 |
0.325203 |
0.407186 |
0.388889 |
0.393443 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.324324 |
0.334577 |
0.275362 |
0.423913 |
0.323232 |
0.309524 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.380835 |
0.399102 |
0.294737 |
0.430108 |
0.432258 |
0.379888 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.400491 |
0.421002 |
0.302521 |
0.410596 |
0.478528 |
0.40678 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.405405 |
0.424267 |
0.336283 |
0.444444 |
0.487252 |
0.345324 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.41769 |
0.433215 |
0.338983 |
0.493506 |
0.458716 |
0.391534 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.378378 |
0.392196 |
0.336449 |
0.497238 |
0.42515 |
0.261438 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.361179 |
0.37965 |
0.304762 |
0.449438 |
0.428152 |
0.268657 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.361179 |
0.376119 |
0.423077 |
0.384 |
0.410405 |
0.265734 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.36855 |
0.388047 |
0.3 |
0.414286 |
0.433526 |
0.337349 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.339066 |
0.351732 |
0.213592 |
0.402174 |
0.44186 |
0.225806 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.388206 |
0.405904 |
0.357724 |
0.427481 |
0.448864 |
0.33526 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.395577 |
0.407388 |
0.333333 |
0.459627 |
0.461538 |
0.302632 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.375921 |
0.393167 |
0.314815 |
0.433735 |
0.459302 |
0.28 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.383292 |
0.357075 |
0.272727 |
0.316667 |
0.493274 |
0.193548 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.407862 |
0.356708 |
0.288462 |
0.275229 |
0.534447 |
0.141593 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.400491 |
0.354917 |
0.276923 |
0.372881 |
0.522876 |
0.0645161 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.422604 |
0.387699 |
0.197802 |
0.428571 |
0.530337 |
0.206897 |
Результаты для датасета resd
experiment |
epoch |
accuracy |
f1_weighted |
happy_f1 |
disgusted_f1 |
angry_f1 |
fearful_f1 |
other_f1 |
neutral_f1 |
sad_f1 |
|
---|---|---|---|---|---|---|---|---|---|---|---|
0 |
emov1_baseline |
10 |
0.217857 |
0.145613 |
0.247788 |
0.0 |
0.390977 |
0.0 |
0.0 |
0.256757 |
0.0909091 |
1 |
emov1_baseline |
16 |
0.242857 |
0.157459 |
0.283186 |
0.0 |
0.42735 |
0.0 |
0.0 |
0.3375 |
0.0 |
2 |
emov1_baseline |
19 |
0.267857 |
0.205569 |
0.315789 |
0.0 |
0.455446 |
0.0425532 |
0.0 |
0.333333 |
0.282609 |
3 |
emov1_baseline |
20 |
0.257143 |
0.185994 |
0.311111 |
0.0 |
0.471429 |
0.0 |
0.0754717 |
0.296296 |
0.105263 |
4 |
emov1_baseline_aam |
19 |
0.217857 |
0.146563 |
0.242424 |
0.0 |
0.333333 |
0.0 |
0.0 |
0.347222 |
0.0784314 |
5 |
emov1_baseline_aam |
22 |
0.25 |
0.170063 |
0.314286 |
0.0 |
0.413793 |
0.0 |
0.0444444 |
0.321168 |
0.05 |
6 |
emov1_baseline_aam |
28 |
0.242857 |
0.173741 |
0.289855 |
0.0 |
0.380952 |
0.0 |
0.0 |
0.330097 |
0.205882 |
7 |
emov1_baseline_aam |
28 |
0.235714 |
0.166537 |
0.285714 |
0.0 |
0.343434 |
0.0 |
0.0434783 |
0.338028 |
0.136364 |
8 |
emov1_baseline_am |
10 |
0.246429 |
0.176671 |
0.296296 |
0.0 |
0.514286 |
0.0 |
0.0408163 |
0.282828 |
0.0444444 |
9 |
emov1_baseline_am |
11 |
0.275 |
0.222223 |
0.353982 |
0.0 |
0.495238 |
0.0 |
0.185185 |
0.302521 |
0.186047 |
10 |
emov1_baseline_am |
13 |
0.25 |
0.187706 |
0.253165 |
0.0 |
0.473684 |
0.0 |
0.184615 |
0.317073 |
0.0357143 |
11 |
emov1_baseline_am |
16 |
0.282143 |
0.222766 |
0.396226 |
0.0 |
0.46729 |
0.0 |
0.193548 |
0.335766 |
0.121212 |
12 |
emov1_baseline_raam |
13 |
0.242857 |
0.176768 |
0.210526 |
0.0 |
0.417582 |
0.0 |
0.12766 |
0.333333 |
0.12766 |
13 |
emov1_baseline_raam |
19 |
0.257143 |
0.187119 |
0.34188 |
0.0 |
0.383333 |
0.0 |
0.0487805 |
0.304636 |
0.217391 |
14 |
emov1_baseline_raam |
22 |
0.242857 |
0.169604 |
0.243902 |
0.0 |
0.448598 |
0.0 |
0.047619 |
0.311377 |
0.102564 |
15 |
emov1_baseline_raam |
27 |
0.25 |
0.184876 |
0.288136 |
0.0 |
0.384615 |
0.0 |
0.0869565 |
0.338624 |
0.181818 |
16 |
emov1_baseline_ram |
11 |
0.25 |
0.177654 |
0.324324 |
0.0 |
0.409836 |
0.0 |
0.0 |
0.287671 |
0.20339 |
17 |
emov1_baseline_ram |
13 |
0.285714 |
0.209697 |
0.403846 |
0.0 |
0.465517 |
0.0 |
0.0487805 |
0.304094 |
0.217391 |
18 |
emov1_baseline_ram |
22 |
0.267857 |
0.199883 |
0.38806 |
0.0 |
0.463158 |
0.0 |
0.0434783 |
0.276316 |
0.196078 |
19 |
emov1_baseline_ram |
26 |
0.25 |
0.190313 |
0.35514 |
0.0 |
0.474227 |
0.0 |
0.0 |
0.265734 |
0.209302 |
20 |
emov1_ce_weight_smoouth_baseline |
12 |
0.214286 |
0.187012 |
0.215054 |
0.05 |
0.309859 |
0.126984 |
0.04 |
0.310078 |
0.26 |
21 |
emov1_ce_weight_smoouth_baseline |
15 |
0.264286 |
0.248627 |
0.21978 |
0.156863 |
0.473118 |
0.282828 |
0.0454545 |
0.290909 |
0.241379 |
22 |
emov1_ce_weight_smoouth_baseline |
17 |
0.275 |
0.23724 |
0.194444 |
0.0888889 |
0.487805 |
0.232558 |
0.0465116 |
0.333333 |
0.253968 |
23 |
emov1_ce_weight_smoouth_baseline |
19 |
0.282143 |
0.262441 |
0.235294 |
0.363636 |
0.477064 |
0.283333 |
0.0487805 |
0.243243 |
0.148148 |
24 |
emov1_ce_weight_smoouth_baseline_aam |
21 |
0.242857 |
0.174885 |
0.235294 |
0.0 |
0.470588 |
0.0 |
0.0 |
0.318182 |
0.181818 |
25 |
emov1_ce_weight_smoouth_baseline_aam |
22 |
0.214286 |
0.178315 |
0.197802 |
0.0 |
0.601942 |
0.0 |
0.0 |
0.222222 |
0.196721 |
26 |
emov1_ce_weight_smoouth_baseline_aam |
23 |
0.235714 |
0.204268 |
0.155844 |
0.0 |
0.615385 |
0.0 |
0.125 |
0.217391 |
0.3125 |
27 |
emov1_ce_weight_smoouth_baseline_aam |
29 |
0.242857 |
0.230691 |
0.166667 |
0.0 |
0.585366 |
0.25974 |
0.0465116 |
0.293333 |
0.212766 |
28 |
emov1_ce_weight_smoouth_baseline_am |
11 |
0.253571 |
0.211748 |
0.101266 |
0.0526316 |
0.487395 |
0.356164 |
0.0888889 |
0.312057 |
0.0 |
29 |
emov1_ce_weight_smoouth_baseline_am |
13 |
0.25 |
0.211817 |
0.1875 |
0.181818 |
0.409449 |
0.119403 |
0.206897 |
0.333333 |
0.0 |
30 |
emov1_ce_weight_smoouth_baseline_am |
16 |
0.275 |
0.246729 |
0.30303 |
0.125 |
0.444444 |
0.246154 |
0.208333 |
0.32 |
0.0 |
31 |
emov1_ce_weight_smoouth_baseline_am |
20 |
0.260714 |
0.219438 |
0.207792 |
0.212121 |
0.416667 |
0.222222 |
0.0930233 |
0.326241 |
0.0 |
32 |
emov1_ce_weight_smoouth_baseline_raam |
8 |
0.289286 |
0.247354 |
0.215686 |
0.15 |
0.494624 |
0.328125 |
0.0 |
0.385321 |
0.0952381 |
33 |
emov1_ce_weight_smoouth_baseline_raam |
13 |
0.307143 |
0.260678 |
0.243478 |
0.0 |
0.505747 |
0.362319 |
0.0465116 |
0.425532 |
0.177778 |
34 |
emov1_ce_weight_smoouth_baseline_raam |
15 |
0.289286 |
0.27322 |
0.25 |
0.130435 |
0.537634 |
0.298851 |
0.137931 |
0.339286 |
0.16129 |
35 |
emov1_ce_weight_smoouth_baseline_raam |
20 |
0.303571 |
0.281431 |
0.175824 |
0.25 |
0.615385 |
0.36478 |
0.12766 |
0.307692 |
0.047619 |
36 |
emov1_ce_weight_smoouth_baseline_raam_stats |
45 |
0.257143 |
0.173133 |
0.126984 |
0.0 |
0.521008 |
0.166667 |
0.0 |
0.328042 |
0.0 |
37 |
emov1_ce_weight_smoouth_baseline_raam_stats |
53 |
0.25 |
0.20484 |
0.288462 |
0.0 |
0.394366 |
0.270677 |
0.0465116 |
0.349206 |
0.0 |
38 |
emov1_ce_weight_smoouth_baseline_raam_stats |
57 |
0.260714 |
0.245691 |
0.197531 |
0.196078 |
0.505495 |
0.243902 |
0.142857 |
0.366197 |
0.0 |
39 |
emov1_ce_weight_smoouth_baseline_raam_stats |
65 |
0.257143 |
0.209412 |
0.241758 |
0.0512821 |
0.460177 |
0.241935 |
0.0 |
0.349515 |
0.0526316 |
40 |
emov1_ce_weight_smoouth_baseline_ram |
10 |
0.278571 |
0.218254 |
0.215054 |
0.0 |
0.556701 |
0.311111 |
0.0 |
0.346154 |
0.0 |
41 |
emov1_ce_weight_smoouth_baseline_ram |
13 |
0.314286 |
0.279572 |
0.29703 |
0.212766 |
0.62069 |
0.314815 |
0.0 |
0.321168 |
0.114286 |
42 |
emov1_ce_weight_smoouth_baseline_ram |
16 |
0.307143 |
0.271159 |
0.355828 |
0.196078 |
0.474576 |
0.350515 |
0.0 |
0.380952 |
0.0588235 |
43 |
emov1_ce_weight_smoouth_baseline_ram |
20 |
0.282143 |
0.257227 |
0.289474 |
0.153846 |
0.586667 |
0.336449 |
0.0 |
0.289474 |
0.0512821 |
44 |
emov1_ce_weight_smoouth_baseline_ram_stats |
20 |
0.242857 |
0.138381 |
0.0677966 |
0.0 |
0.468966 |
0.0 |
0.0888889 |
0.304569 |
0.0 |
45 |
emov1_ce_weight_smoouth_baseline_ram_stats |
28 |
0.235714 |
0.169549 |
0.325581 |
0.0 |
0.358209 |
0.0 |
0.0851064 |
0.327869 |
0.047619 |
46 |
emov1_ce_weight_smoouth_baseline_ram_stats |
29 |
0.239286 |
0.19899 |
0.264151 |
0.0 |
0.416667 |
0.08 |
0.123077 |
0.333333 |
0.142857 |
47 |
emov1_ce_weight_smoouth_baseline_ram_stats |
40 |
0.228571 |
0.174131 |
0.333333 |
0.0526316 |
0.35443 |
0.0 |
0.0 |
0.282353 |
0.181818 |
48 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
11 |
0.203571 |
0.142829 |
0.129032 |
0.28125 |
0.0416667 |
0.30137 |
0.047619 |
0.173913 |
0.0 |
49 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
19 |
0.267857 |
0.227227 |
0.190476 |
0.326923 |
0.0425532 |
0.369863 |
0.258065 |
0.333333 |
0.0512821 |
50 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
22 |
0.307143 |
0.266235 |
0.222222 |
0.335135 |
0.153846 |
0.466019 |
0.0952381 |
0.451613 |
0.114286 |
51 |
emov1_russain_ce_weight_smoouth_baseline_raam_stats_765 |
40 |
0.289286 |
0.243765 |
0.153846 |
0.360656 |
0.145455 |
0.452055 |
0.202899 |
0.3 |
0.0588235 |
TSNE
-визулазиции для baseline
+ различные функции потерь
am-softmax



aam-softmax



ram-softmax



raam-softmax



p.s. подпишись