Модель распознавания эмоций в речи GigaAM-Emo умеет классифицировать 4 эмоции: angrysadneutralpositive. Для некоторых задач бывает недостаточно распознавать 4 класса и возникает необходимость расширения этого списка. В данной статье мы рассмотрим:

  • существующие корпуса данных, предназначенных для распознавания эмоций;

  • ключевые возможности разработанного пайплайна для дообучения GigaAM с использованием библиотек hydra и Pytorch Lightning;

  • результаты экспериментов с различными архитектурами и функциями потерь.

Демо можно попробовать тут

Данные

Открытых корпусов данных для задачи распознавания эмоций в русской речи не так много: dusha и три небольших корпуса данных - resd, repv, repv-s, собранных в рамках проекта Aniemore. На английском языке данных больше. Возьмём только самые популярные: esd, expresso, msp podcast. Так же будем использовать небольшой закрытый корпус данных dialogs. Ниже корпуса данных рассмотрены подробнее.

  • RESD_Annotated, REPV, REPV-S. RESD_Annotated - 7 эмоций (angry, sad, neutral, happy, fearful, disgusted, enthusiasm), 4 часа аудиозаписей диалогов, число аудиозаписей 1396

Диаграмма распределения эмоций для корпуса данных RESD
  • REPV - 5 эмоций (angry, sad, happy, enthusiasm, tired), голосовые сообщения, 200 актеров, 2 нейтральные фразы, 2035 аудиозаписей

Диаграмма распределения эмоций для корпуса данных REPV
  • REPV-S - 5 эмоций (angry, sad, happy, enthusiasm, tired), голосовые сообщения, "Привет, как дела?" с разными эмоциями, 140 аудиозаписей.

Диаграмма распределения эмоций для корпуса данных REPV-S
Здесь автор статьи немного негодует от качества данных Aniemore

Что не понравилось:

  1. Отсутствует однообразная структура в различных паркетах (не для всех аудиозаписей имеется текстовая аннотация, пола, где-то отсутствуют какие-то ключи).

  2. Данные имеют различную частоту дискретизации, даже в рамках одного паркета. В некоторых местах частота дискретизации вовсе не указана.

  3. Отсутствует идентификатор спикера.

  4. Различные классы эмоций (возможно, с другой стороны, это и неплохо).

Примеры:

Aniemore/resd_annotated
train: Dataset({
    features: ['name', 'path', 'speech', 'text', 'emotion'],
    num_rows: 1116
})
{'name': '32_happiness_enthusiasm_h_120',
 'path': 'happiness_enthusiasm_32/32_happiness_enthusiasm_h_120.wav',
 'speech': {'path': '32_happiness_enthusiasm_h_120.wav',
  'array': array([-0.00018311, -0.00061035, -0.00076294, ...,  0.00085449,
          0.00048828,  0.00030518]),
  'sampling_rate': 16000},
 'text': 'Конечно, расскажу, обязательно. Ой, сейчас расскажу.',
 'emotion': 'happiness'}
Aniemore/REPV-S
train: Dataset({
    features: ['path', 'file', 'gender', 'emotion', 'speech'],
    num_rows: 112
})
{'path': '/content/drive/MyDrive/SocialCode/emotions/enthusiasm/m/М14.mp3',
 'file': 'М14.mp3',
 'gender': 'm',
 'emotion': 'enthusiasm',
 'speech': [5.221595984039595e-06,
  8.369257557205856e-06, ... ]}
Aniemore/REPV
train: Dataset({
    features: ['path', 'file', 'gender', 'emotion', 'speech'],
    num_rows: 1628
})
{'path': '/content/drive/MyDrive/SocialCode/emotions2000/sadness/f/жен.лес (2)_01.mp3',
 'file': 'жен.лес (2)_01.mp3',
 'gender': 'f',
 'emotion': 'sadness',
 'speech': [-1.4211690313459258e-07,
  1.2882625810561876e-07,
  -1.2283784656119678e-07,
  1.1345710504429007e-07, ...]}

Хотелось, чтобы все аудиозаписи были одной частоты дискретизации (например 44.1kHz), и для каждой были следующие данные: audio_path, speaker_id, text, gender, emotion.

  • dusha - на русском языке, авторы выделяют 4 эмоции (positive, angry, sad, neutral), 2061 спикеров, 160566 аудиозаписей.

Диаграмма распределения эмоций для корпуса данных dusha
  • msp podcast - на английском языке, авторы выделяют 10 эмоций(angry, sad, neutral, happy, contempt, surprised, disgusted, fearful, other, no agreement), 1859 спикеров, 88175 аудиозаписей.

Диаграмма распределения эмоций для корпуса данных msp podcast
  • expresso - на английском языке, авторы выделяют 10 модальностей произношения (confused, neutral, emphasis, essentials, longform, enunciated, happy, laughing, sad, singing, whisper), 4 спикера, 11615 - аудиозаписей.

Диаграмма распределения эмоций для корпуса данных expresso
  • esd - на английском языке, авторы выделяют 5 эмоций (angry, sad, neutral, happy, surprised), 10 спикеров (5 мужчин, 5 женщин), одинаковые фразы с разной эмоциональной окраской, 17500 - аудиозаписей.

Диаграмма распределения эмоций для корпуса данных ESD
  • dialogs - небольшой собственный закрытый корпус данных, выделены 7 эмоций (angry, sad, neutral, happy, surprised, disgusted, fearful), где 2 спикера, ~2200 аудиозаписей.

Диаграмма распределения эмоций для корпуса данных dialogs

Определимся с целевыми классами. В большинстве корпусов данных для задач распознавания эмоций в речи выделяют следующие классы: angrysadneutralhappysurprisedfearfuldisgusted - именно их будем использовать в качестве целевых классов. Все остальные эмоции / модальности речи отправляем в класс other.
В силу ограничений по количеству вычислительных ресурсов, выкинем аудиозаписи, длительность которых более 10 секунд.
Пройдёмся по каждому корпусу данных детально:

  • dusha - для обучения возьмем по 5000 записей каждой эмоции. Для валидации используем те примеры, которые предложены авторами для оценки качества модели;

  • resd, repv, repv-s - берём все данные, разбиваем на train/test, в соответствии предложенным ими разбиением;

  • expresso - объединим классы laughing и happy, разделим на обучающую и валидационную следующим образом  df_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42);

  • msp_podcast - отфильтруем строки, где emoact <= 3.5 (emoact - уровень эмоциональной активности), разделим на обучающую и валидационную следующим образом df_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42), и из обучающей оставим не более 5000 примеров каждого класса;

  • esd - для обучения берём 10% аудиозаписей пропорционально каждому спикеру (по эмоциям там тоже получается баланс). В валидационную выборку из этого корпуса данных брать ничего не будем;

  • dailogs - разделим на обучающую и валидационную следующим образом df_train, df_test = train_test_split(df, test_size=0.1, stratify=df['emotion'], random_state=42).

В результате получится следующее распределение в обучающей выборке:

Распределение в валидационной выборке

Pipeline для обучения моделей

Для дообучения нужно разработать удобный пайплайн для экспериментов. Он использует следующие фреймворки: Hydra и PyTorch Lightning. Hydra позволяет гибко управлять файлами конфигураций и изменять параметры запуска эксперимента, а PyTorch Lightning дает возможность упростить код обучения. Далее разберём ключевые возможности, которые были использованы при разработке пайплайна для проведения экспериментов.

Hydra Ты ранее уже говорил о фреймворках, мб надо там сократить до их названия, а тут уже оставить с более развернутым текстом?

Hydra - это фреймворк на Python, который упрощает разработку исследовательских приложений. Благодаря ему, можно структурировано хранить параметры экспериментов в иерархических YAML-файлах и переопределять их через командную строку без изменений кода. Hydra предоставляет возможность для удобного создания экземпляров класса прямо из файла конфигурации с помощью hydra.utils.instantiate, а так же позволяет запускать серии экспериментов.

Рассмотрим возможность создания экземпляра класса по описанию из файла конфигурации. Например, в случае с классом AttentiveStatsPooling с параметрами input_dim и attention_hidden_dim

class AttentiveStatsPooling(nn.Module):
  def __init__(self, input_dim=768, attention_hidden_dim=256):
    super().__init__()
    self.linear1 = nn.Linear(input_dim, attention_hidden_dim)
    self.tanh = nn.Tanh()
    self.linear2 = nn.Linear(attention_hidden_dim, 1)
    self.bn = nn.BatchNorm1d(input_dim * 2)
  
    ...

С помощью YAML можно описать его так:

attentive_pooling:
  _target_: src.modules.AttentiveStatsPooling
  input_dim: 768
  attention_ hidden_dim: 256

И для создания экземпляра класса в коде нужно написать следующую строчку self.attentive_pooling = hydra.utils.instantiate(cfg.attentive_pooling), где в переменной cfg.attentive_pooling содержатся данные из файла конфигурации. По умолчанию hydra создаёт объекты рекурсивно. Если необходимо создать только текущий объект, то нужно изменить значение по умолчанию у аргумента _recursive_=False.

С помощью hydra можно решить задачу удобного именования экспериментов. Рассмотрим процесс настройкиhydra для наименования экспериментов по следующему шаблону {имя-конфига}{названия переопределённых параметров}{текущее время}.
Есть файл конфигурации, в котором можно настроить параметры hydra. Для наглядности, это - emov1.yaml

defaults: 
  - _self_
  - loss: ce
  - data_params: resd
  - model: baseline
  - optimizer: adam
  - scheduler: warmup_then_plateau

hydra:
  run:
    dir: ./outputs/${now:%Y-%m-%d}/${hydra:job.config_name}_${config_names:${hydra:job.override_dirname}}_${now:%H-%M-%S}
  job:
    chdir: true
...

В этом файле конфигурации для ключа hydra.run.dir указано выражение ${hydra:job.config_name}_${config_names:${hydra:job.override_dirname}}_${now:%H-%M-%S}
Разберём его подробнее:

  1. ${hydra:job.config_name} - это встроенное выражение Hydra, которое возвращает имя основного конфигурационного файла, указанного в аргументе --config-name при запуске эксперимента ;

  2. ${now:%H-%M-%S} - стандартный шаблон времени, который выводит текущее время запуска в формате "ЧЧ-ММ-СС", чтобы имена директорий не пересекались при множественных запусках;

  3. ${hydra:job.override_dirname} - возвращает строку, описывающую параметры, переопределённые в командной строке при запуске. Например, если запустить: python train.py model=baseline optimizer=adam то вернется строка model=baseline,optimizer=adam;

  4. ${config_names:...} - это пользовательский ключ, который регистрируется через OmegaConf.resolver, чтобы разбирать строки переопределённых параметров и собирать из них имена, пример кода ниже

def format_config_names(overrides_str: str) -> str:
    #функция `format_config_names` принимает все переопределенные переменные и возвращает их значения через `_`
    if not overrides_str:
        return "no_override"
    return "_".join([x.split("=")[1] for x in overrides_str.split(",") if "=" in x])

OmegaConf.register_new_resolver("config_names", format_config_names)

Одна из классических проблем при работе с конфигурациями - необходимость многократно указывать одно и тоже значение в разных местах, когда это значение имеет одинаковый смысл во всех участках определения. В таких случаях, хочется задать его один раз в одном месте, и, далее, ссылаться на него, избегая дублирования, для снижения риска рассинхронизации.
Возьмём пример из нашей задачи по распознаванию эмоций. Количество эмоций (эквивалентно количеству классов) может изменяться в зависимости от используемого датасета. Так же количество классов необходимо для:

  1. задания выходного размера последнего линейного слоя модели;

  2. конфигурации функций потерь, например AMSoftmax;

Чтобы не указывать num_classes вручную в каждом файле конфигурации, удобнее определить это значение в файле конфигурации датасета, и считать его как первоисточник о числе классов.

path_to_train_df: .../data/resd/train.csv
validation_datasets: 
  dusha: .../data/test.csv
  resd: .../data/resd/test.csv
  expresso: .../data/expresso/test.csv
  msp_podcast: .../data/msp_podcast/test.csv
  repv: .../data/repv/test.csv
  repv-s: .../data/repv-s/test.csv
batch_size: 16

id2name:
  - happy
  - disgusted
  - angry
  - fearful
  - enthusiasm
  - neutral
  - sad

num_classes: ${len:${id2name}} # тут можно поставить сразу число, но т.к. у нас число эмоций может изменятся, то удобнее зарегистрировать имя, которое будет считать количество классов

и пробросить параметр, который возвращает число классов в глобальный файл конфигурации

seed: 42
path_to_checkpoint_with_weights: ./models/v1_ssl.ckpt

num_classes: ${data_params.num_classes} # здесь пробасываем переменную в глобальное пространство имён
id2name: ${data_params.id2name}

и уже в файле конфигурации AMSoftmax использовать переменную из глобального пространства имён

_target_: src.losses.AM_Softmax_v2
num_classes: ${num_classes}

Pytorch Lightning

PyTorch Lightning - высокоуровневая надстройка над PyTorch, которая позволяет сосредоточиться на логике модели, предоставляя удобный интерфейс для реализации рутинных задач части цикла обучения: обработку батчей, вызов backward, шаг оптимизатора, сбор метрик и логирование. Lightning упрощает код тренировки, из-за чего он становится компактнее и чище и самостоятельно масштабирует модель на несколько GPU.

Lightning интегрирован со многими инструментами ML и предоставляет готовые компоненты:

  • Trainer — класс для запуска обучения/валидации/тестирования. Он сам разбивает обучение на эпохи, следит за метриками, инициализирует коллбэки и логгеры. Например, trainer = pl.Trainer(max_epochs=50, precision="bf16", strategy="ddp", logger=TensorBoardLogger(...)) сразу обеспечивает поддержку смешанной точности, распределённого обучения и логирования в TensorBoard;

  • LightningModule — базовый класс модели, в котором отделены методы training_step, validation_step, configure_optimizers и т.п. Реализация EmoFinetuneTrainer наследуется от него, определяя собственные тренировочные и валидационные шаги. Lightning сам циклически вызывает эти методы и собирает логи;

  • Callbacks — готовые классы для распространённых задач: например, ModelCheckpoint автоматически сохраняет лучшие модели по заданной метрике, а EarlyStopping останавливает обучение при отсутствии улучшений. Благодаря этому не нужно писать код сохранения чекпоинтов или проверки на остановку — Lightning берёт это на себя;

  • Логгеры и метрикиLightning из коробки поддерживает логирование в TensorBoard, CSV или W&B. Для вычисления метрик можно использовать библиотеку TorchMetrics.

ИспользуяPyTorch Lightning можно удобно реализовать возможность загружать несколько валидационных наборов данных для отслеживания метрик по каждому корпусу данных отдельно.
Для реализации нужно в файле конфигурации датасета определить словарь, где ключом будет название датасета, а значением - путь до csv файла

path_to_train_df: .../data/resd/train.csv
validation_datasets: 
  dusha: .../data/test.csv
  resd: .../data/resd/test.csv
  expresso: .../data/expresso/test.csv
  msp_podcast: .../data/msp_podcast/test.csv
  repv: .../data/repv/test.csv
  repv-s: .../data/repv-s/test.csv
...

Далее создать DataLoader для всех перечисленных наборов данных

val_loaders = {}
for name, path_to_df in config.validation_datasets.items():
    val_dataset =  AudioDataset(path_to_df, emo2id)
    
    val_loader = DataLoader(
        val_dataset,
        shuffle=False,
        batch_size=config.batch_size,
        collate_fn=collate_fn,
        num_workers=config.num_workers
    )
    val_loaders[name] = val_loader

При реализации модуля который наследуются от pl.LightningModule, нужно в конструкторе класса создать все необходимые метрики для каждого датасета и положить их сразу на нужный device - если он один, если несколько - то в начале эпохи валидации переносить метрику на соответствующий device (вообще метрики, по умолчанию, кладутся на соответствующий девайс, но так как они хранятся в словарях, то необходимо положить самостоятельно). Реализация возможности использования нескольких валидационных корпусов данных выглядит так:

class EmoFinetuneTrainer(pl.LightningModule):

    def __init__(self, config: TrainParams):
        super().__init__()
        ...
        self.val_metrics = {}
        for val_name in config.data_params.validation_datasets.keys():
            self.val_metrics[val_name] = {
                'loss': torchmetrics.MeanMetric(),
                'f1_micro': MulticlassF1Score(num_classes=config.num_classes, average='micro'),
                'accuracy': MulticlassAccuracy(num_classes=config.num_classes)
            }
        self.avg_f1_micro = torchmetrics.MeanMetric()
    ...
    def on_validation_start(self):
        for val_name in self.val_metrics:
            for metric in self.val_metrics[val_name].values():
                metric.to(self.device)

    def validation_step(self, batch: AudioBatch, batch_idx: int, dataloader_idx: int = 0):
        val_name = list(self.config.data_params.validation_datasets.keys())[dataloader_idx]
        metrics = self.val_metrics[val_name]

        output = self.model.forward_for_train(batch)
        loss = self.criterion(output, batch.emotions)

        proba_pred = torch.softmax(output, dim=-1)
        metrics['loss'](loss)
        metrics['f1_micro'](proba_pred, batch.emotions)
        metrics['accuracy'](proba_pred, batch.emotions)

    def on_validation_epoch_end(self):
        sch = self.lr_schedulers()
        
        total_loss = 0.0
        num_datasets = len(self.val_metrics)
        self.avg_f1_micro.reset()  
        
        for val_name, metrics in self.val_metrics.items():
            val_loss = metrics['loss'].compute()
            total_loss += val_loss
            f1_micro = metrics["f1_micro"].compute()
            
            self.log(f'loss/valid/{val_name}', val_loss, sync_dist=True)
            self.log(f'F1_score_micro/valid/{val_name}', f1_micro, sync_dist=True)
            self.log(f'Accuracy/valid/{val_name}', metrics['accuracy'].compute(), sync_dist=True)
            
            self.avg_f1_micro.update(f1_micro)
            
            metrics['loss'].reset()
            metrics['f1_micro'].reset()
            metrics['accuracy'].reset()
        
        avg_f1 = self.avg_f1_micro.compute()
        self.log("F1_micro/valid/avg", avg_f1, prog_bar=True)
        
        avg_loss = total_loss / num_datasets
        self.log('loss/valid/avg', avg_loss, prog_bar=True)
        
        sch.step(avg_loss)

Репозиторий проекта.

Эксперименты

Для экспериментов использовалась архитектура модели, которая состоит из feature extractor, пулинга и головы:

class EmotionModel(nn.Module):
    def __init__(self, config):
        super().__init__()

        self.feature_extractor = hydra.utils.instantiate(config.feature_extractor)
        self.pooling = hydra.utils.instantiate(config.pooling)
        self.head = hydra.utils.instantiate(config.head)
    
    def forward(self, batch: AudioBatch):
        feats, lengths = self.feature_extractor(batch.wavs, batch.wav_lengths) # return  [B, EMB_DIM, T], [B]
        feats = feats.transpose(1, 2)# [B, T, EMB_DIM]
        pooled = self.pooling(feats, lengths) # [B, NEW_EMB_DIM]

        if hasattr(self.head, "use_labels_when_train") and self.head.use_labels_when_train is True:
            logit = self.head(pooled, batch.emotions)
        else:
            logit = self.head(pooled)
        return logit, None # [B, NUM_CLASSES]

где:

  • feature extractorэто GigaAM (v1_ssl,  v2_ssl даёт качество сильно хуже в задаче распознавания эмоций, поэтому дальше нигде не рассматривается);

  • пулинг либо MaxPooling, либо AttentiveStatsPooling + MultiHeadAttention;

  • голова - Linear слой для классификации.

При проведении эксперементов использовались различные функции потерь и их комбинации:

  • Label Smoouth + Weight + CrossEntropy

  • AM-Softmax

  • AAM-Softmax

  • RAM-Softmax

  • RAAM-Softmax

Подробнее про RAM-Softmax

RAMSoftMax - функция потерь, в которой добавляется отступ m только если целевой логит не превосходит максимум нецелевых хотя бы на m. Т.е. внимание модели будет акцентироваться на сложных нецелевых логитах, игнорируя те, которые уже хорошо разделены.

\begin{align*}\text{cosine:} \quad & \cos\theta_j = \frac{W_j^\top x}{\|W_j\|\|x\|} \\\text{target logit:} \quad & z_y = s \cdot (\cos\theta_y - m) \\\text{non-target logits:} \quad & z_j =\begin{cases}s \cdot \cos\theta_j, & \text{if } \cos\theta_y - \cos\theta_j \le m \\-\infty, & \text{if } \cos\theta_y - \cos\theta_j > m\end{cases} \\\text{loss:} \quad & \mathcal{L} = -\log\left( \frac{e^{z_y}}{e^{z_y} + \sum_{j \ne y {,} \cos\theta_y - \cos\theta_j \le m} e^{z_j}} \right)\end{align*}
Подробнее про RAAM-Softmax

В рамках иседования я решил попробовать совместить `RAM-Softmax` + `AAM-Softmax` и назвать её `RAAM-Softmax`. Интуиция для которой следующая: используется отступ под знаком косинуса, применяется `RAM`-маскирование: игнорируются легко разделённые примеры из "негативных" классов.

Optimizer использовался Adam со следующими гиперпараметрами

_target_: torch.optim.Adam
betas:
  - 0.9
  - 0.98
eps: 1.0e-08
weight_decay: 0.01

Так как для обучения хотелось использовать разные learning rate для предобученной части модели и "классификационной головы", то нужно было разделить параметры модели на две группы

params = [
    {"params": pretrained_params, "lr": self.config.pretrained_lr},
    {"params": new_params, "lr": self.config.lr},
]

и при создании оптимизатора с помощью instantiate(self.config.optimizer, params=params) возникала ошибка, из-за неправильной интепретации агрументов. Для решения данной ошибки пришлось сделать костыль и создавать optimizer:

optimizer_class = hydra.utils.get_class(self.config.optimizer._target_)
optimizer_params = { key: value for key, value in self.config.optimizer.items() if key != "_target_"}

optimizer = optimizer_class(params, **optimizer_params)

В качестве scheduler использовался ReduceLROnPlateau, который отслеживал метрику loss/valid/avg и, если не было улучшения в течении 10 эпох, то уменьшал lr в 2 раза:

_target_: torch.optim.lr_scheduler.ReduceLROnPlateau
mode: "min"
factor: 0.5
patience: 10
threshold: 0.0001
threshold_mode: "rel"
cooldown: 0
min_lr: 0.00000001

Так же для warmup модели был определён линейный шедулер

self.warmup_scheduler = LinearLR(optimizer=optimizer, total_iters=self.config.warmup_steps, start_factor=self.config.start_factor)

Результаты

В результате проведения экперементов получена модель, которая распознаёт 7 эмоций в русской и английской речи.
Использование RAM-Softmax или RAAM-Softmax, в среднем, приводит к более лучшим результатам в классификации, чем другие функции потерь.
На визуализациях, полученных с помощью TSNE для  RAM-Softmax достаточно хорошо виден результат разделения классов, для RAAM-Softmax не наблюдается чётко выраженного разделения, но при этом примеры одного класса начинают групироваться вокруг различных центроидов. Возможно, эти центроиды образуются по "сложности" классификации примера.
Добавление англоязычных данных улучшают метрики модели на всех корпусах данных, кроме корпусов dusha (думаю, это связано с тем, что дисбаланс данных на различных наборах данных слишком сильный, и модель начинает переобучаться под данные из датасета dusha). Хочется отметить, что данных для классификации эмоций в русской речи очень мало.
Ниже представлены значения метрик по каждому датасету для всех моделей.

Результаты для датасета dialogs

experiment

epoch

accuracy

f1_weighted

happy_f1

angry_f1

neutral_f1

sad_f1

surprised_f1

0

emov1_baseline

10

0.555556

0.482697

0.395062

0.0

0.702929

0.0

0.0

1

emov1_baseline

16

0.544444

0.462893

0.294118

0.0

0.709677

0.0

0.0

2

emov1_baseline

19

0.566667

0.471453

0.271186

0.0

0.715385

0.0

0.0666667

3

emov1_baseline

20

0.555556

0.476661

0.3125

0.0

0.709163

0.0

0.0606061

4

emov1_baseline_aam

19

0.561111

0.47537

0.361111

0.0

0.704

0.0

0.0

5

emov1_baseline_aam

22

0.55

0.445208

0.229508

0.0

0.704981

0.0

0.0

6

emov1_baseline_aam

28

0.533333

0.473909

0.479167

0.0

0.651786

0.0

0.0

7

emov1_baseline_aam

28

0.561111

0.477717

0.383562

0.0

0.698795

0.0

0.0

8

emov1_baseline_am

10

0.55

0.403105

0.0

0.5

0.720588

0.0

0.0

9

emov1_baseline_am

11

0.516667

0.41642

0.135593

0.0

0.692607

0.0

0.0

10

emov1_baseline_am

13

0.544444

0.431695

0.148148

0.0

0.714829

0.0

0.0

11

emov1_baseline_am

16

0.522222

0.446003

0.272727

0.0

0.688259

0.0

0.0

12

emov1_baseline_raam

13

0.516667

0.448074

0.293333

0.0

0.683333

0.0

0.0

13

emov1_baseline_raam

19

0.511111

0.460707

0.344828

0.0

0.684444

0.0

0.0

14

emov1_baseline_raam

22

0.494444

0.447228

0.333333

0.133333

0.663677

0.0

0.0

15

emov1_baseline_raam

27

0.555556

0.468426

0.338028

0.0

0.701195

0.0

0.0

16

emov1_baseline_ram

11

0.555556

0.440825

0.181818

0.5

0.712121

0.0

0.0

17

emov1_baseline_ram

13

0.561111

0.455913

0.233333

1.0

0.712644

0.0

0.0

18

emov1_baseline_ram

22

0.561111

0.462881

0.271186

0.333333

0.715953

0.0

0.0

19

emov1_baseline_ram

26

0.522222

0.459794

0.3125

0.181818

0.694561

0.0

0.0

20

emov1_ce_weight_smoouth_baseline

12

0.522222

0.427259

0.206897

0.0

0.682171

0.0

0.0

21

emov1_ce_weight_smoouth_baseline

15

0.533333

0.496132

0.395062

0.0

0.675556

0.0

0.177778

22

emov1_ce_weight_smoouth_baseline

17

0.538889

0.469739

0.246154

0.0

0.696356

0.0

0.157895

23

emov1_ce_weight_smoouth_baseline

19

0.483333

0.453598

0.28125

0.0

0.640351

0.0

0.2

24

emov1_ce_weight_smoouth_baseline_aam

21

0.55

0.478997

0.373333

0.0

0.705394

0.0

0.0

25

emov1_ce_weight_smoouth_baseline_aam

22

0.55

0.461964

0.323529

0.0

0.695652

0.0

0.0

26

emov1_ce_weight_smoouth_baseline_aam

23

0.533333

0.443264

0.268657

0.0

0.685039

0.0

0.0

27

emov1_ce_weight_smoouth_baseline_aam

29

0.538889

0.464995

0.365854

0.0

0.683333

0.0

0.0

28

emov1_ce_weight_smoouth_baseline_am

11

0.533333

0.403371

0.0454545

0.285714

0.70412

0.0

0.0

29

emov1_ce_weight_smoouth_baseline_am

13

0.533333

0.457875

0.3

0.181818

0.696356

0.0

0.0

30

emov1_ce_weight_smoouth_baseline_am

16

0.494444

0.420749

0.202899

0.0

0.672131

0.0

0.0

31

emov1_ce_weight_smoouth_baseline_am

20

0.511111

0.439335

0.169492

0.0

0.702041

0.0

0.0606061

32

emov1_ce_weight_smoouth_baseline_raam

8

0.527778

0.477713

0.320988

0.0

0.67234

0.0

0.181818

33

emov1_ce_weight_smoouth_baseline_raam

13

0.505556

0.469248

0.452174

0.285714

0.633166

0.0

0.0645161

34

emov1_ce_weight_smoouth_baseline_raam

15

0.533333

0.470887

0.386364

1.0

0.675325

0.0

0.0

35

emov1_ce_weight_smoouth_baseline_raam

20

0.572222

0.51455

0.428571

1.0

0.718615

0.0

0.0606061

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.505556

0.400165

0.037037

0.285714

0.684825

0.0

0.0588235

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.5

0.429075

0.179104

0.0

0.663968

0.0

0.114286

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.494444

0.433504

0.0784314

0.0

0.678112

0.0

0.238806

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.527778

0.47793

0.361446

0.0

0.675325

0.0

0.114286

40

emov1_ce_weight_smoouth_baseline_ram

10

0.538889

0.439673

0.1875

0.4

0.708661

0.0

0.0

41

emov1_ce_weight_smoouth_baseline_ram

13

0.533333

0.40955

0.0784314

0.5

0.699248

0.0

0.0

42

emov1_ce_weight_smoouth_baseline_ram

16

0.505556

0.44108

0.292683

1.0

0.661017

0.0

0.0

43

emov1_ce_weight_smoouth_baseline_ram

20

0.55

0.447071

0.148148

0.4

0.72093

0.0

0.0606061

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.511111

0.401662

0.0

0.0769231

0.722222

0.0

0.0

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.55

0.413838

0.0816327

0.0

0.710623

0.0

0.0

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.505556

0.411988

0.0701754

0.181818

0.696

0.285714

0.0

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.511111

0.389267

0.0392157

0.0

0.684211

0.0

0.0

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.533333

0.476379

0.235294

0.0

0.694215

0.0

0.222222

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.544444

0.491992

0.277778

0.0

0.694561

0.0

0.25641

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.527778

0.508288

0.314286

0.0

0.694444

0.0

0.305085

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.477778

0.440747

0.0425532

0.0

0.679803

0.0

0.329897

Результаты для датасета dusha

experiment

epoch

accuracy

f1_weighted

happy_f1

angry_f1

neutral_f1

sad_f1

0

emov1_baseline

10

0.539521

0.566747

0.422551

0.430138

0.621143

0.50665

1

emov1_baseline

16

0.625668

0.64855

0.450255

0.501002

0.7299

0.513828

2

emov1_baseline

19

0.526848

0.544893

0.471596

0.531222

0.576048

0.465344

3

emov1_baseline

20

0.592045

0.615302

0.449353

0.497765

0.679574

0.514695

4

emov1_baseline_aam

19

0.588162

0.609045

0.462082

0.515309

0.672728

0.485474

5

emov1_baseline_aam

22

0.544942

0.571255

0.395865

0.489917

0.632582

0.465823

6

emov1_baseline_aam

28

0.524211

0.543947

0.44798

0.515818

0.583333

0.451944

7

emov1_baseline_aam

28

0.618343

0.638357

0.446694

0.50607

0.717141

0.50112

8

emov1_baseline_am

10

0.654238

0.670395

0.523527

0.558625

0.737757

0.542641

9

emov1_baseline_am

11

0.574463

0.593158

0.501152

0.549986

0.635981

0.493953

10

emov1_baseline_am

13

0.603692

0.623421

0.50494

0.509411

0.679286

0.528768

11

emov1_baseline_am

16

0.587649

0.608245

0.472836

0.519796

0.662848

0.512576

12

emov1_baseline_raam

13

0.643689

0.662122

0.496679

0.545888

0.733689

0.530143

13

emov1_baseline_raam

19

0.644202

0.661548

0.503097

0.562608

0.730552

0.525583

14

emov1_baseline_raam

22

0.623544

0.645796

0.442804

0.520299

0.718448

0.536201

15

emov1_baseline_raam

27

0.611384

0.636526

0.422949

0.529217

0.712017

0.509875

16

emov1_baseline_ram

11

0.597026

0.617052

0.476786

0.508371

0.671999

0.535196

17

emov1_baseline_ram

13

0.632408

0.651233

0.486346

0.534669

0.715642

0.548856

18

emov1_baseline_ram

22

0.607721

0.629987

0.440834

0.545613

0.693035

0.527043

19

emov1_baseline_ram

26

0.589334

0.610222

0.467028

0.553216

0.665196

0.497983

20

emov1_ce_weight_smoouth_baseline

12

0.446268

0.4548

0.438272

0.555166

0.450304

0.420772

21

emov1_ce_weight_smoouth_baseline

15

0.567211

0.589308

0.455275

0.537455

0.638834

0.491333

22

emov1_ce_weight_smoouth_baseline

17

0.617903

0.637381

0.495033

0.553633

0.700798

0.506141

23

emov1_ce_weight_smoouth_baseline

19

0.529412

0.544777

0.4585

0.538855

0.573845

0.47642

24

emov1_ce_weight_smoouth_baseline_aam

21

0.575855

0.597598

0.434194

0.487603

0.657933

0.507235

25

emov1_ce_weight_smoouth_baseline_aam

22

0.516226

0.534078

0.429367

0.473134

0.569972

0.481766

26

emov1_ce_weight_smoouth_baseline_aam

23

0.485312

0.496341

0.453264

0.509859

0.513063

0.442865

27

emov1_ce_weight_smoouth_baseline_aam

29

0.534393

0.554275

0.471393

0.50534

0.594249

0.465312

28

emov1_ce_weight_smoouth_baseline_am

11

0.636583

0.655785

0.498708

0.52944

0.717126

0.567781

29

emov1_ce_weight_smoouth_baseline_am

13

0.612409

0.63394

0.494805

0.504921

0.689707

0.560609

30

emov1_ce_weight_smoouth_baseline_am

16

0.620101

0.639859

0.486569

0.562696

0.69875

0.529506

31

emov1_ce_weight_smoouth_baseline_am

20

0.644641

0.662643

0.49633

0.538863

0.729325

0.556094

32

emov1_ce_weight_smoouth_baseline_raam

8

0.567358

0.587109

0.456508

0.53043

0.635448

0.495107

33

emov1_ce_weight_smoouth_baseline_raam

13

0.554245

0.574547

0.454137

0.498134

0.622554

0.490371

34

emov1_ce_weight_smoouth_baseline_raam

15

0.544869

0.56476

0.454518

0.514511

0.607806

0.47928

35

emov1_ce_weight_smoouth_baseline_raam

20

0.582668

0.606739

0.407789

0.521027

0.670979

0.505197

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.651015

0.666857

0.500671

0.542813

0.736929

0.546325

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.572632

0.594481

0.446066

0.562733

0.640091

0.508441

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.647498

0.668578

0.455434

0.551764

0.738706

0.569808

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.623617

0.644158

0.481649

0.579499

0.701061

0.53952

40

emov1_ce_weight_smoouth_baseline_ram

10

0.634239

0.653206

0.476862

0.566352

0.714248

0.552904

41

emov1_ce_weight_smoouth_baseline_ram

13

0.66779

0.683781

0.516442

0.562773

0.752573

0.567339

42

emov1_ce_weight_smoouth_baseline_ram

16

0.62435

0.651343

0.421029

0.592857

0.71535

0.551623

43

emov1_ce_weight_smoouth_baseline_ram

20

0.582228

0.601016

0.504709

0.577068

0.641321

0.502808

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.657314

0.673966

0.462842

0.542364

0.747214

0.570248

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.629111

0.649381

0.494012

0.574526

0.711428

0.525672

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.593656

0.613633

0.487821

0.525432

0.662127

0.53776

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.665079

0.680817

0.503226

0.574799

0.74731

0.570431

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.710571

0.724021

0.524089

0.604069

0.804592

0.576408

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.65856

0.678493

0.54174

0.598381

0.744283

0.532005

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.681928

0.701029

0.447262

0.571953

0.785012

0.575231

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.632921

0.654514

0.516946

0.54027

0.712045

0.563854

Результаты для датасета expresso

experiment

epoch

accuracy

f1_weighted

happy_f1

other_f1

neutral_f1

sad_f1

0

emov1_baseline

10

0.918261

0.919042

0.927132

0.937207

0.82

0.937063

1

emov1_baseline

16

0.926087

0.925688

0.945092

0.939716

0.844291

0.918149

2

emov1_baseline

19

0.951304

0.951113

0.961474

0.960945

0.904762

0.941558

3

emov1_baseline

20

0.953913

0.953671

0.966997

0.961086

0.905405

0.948805

4

emov1_baseline_aam

19

0.92087

0.921011

0.925424

0.936094

0.841424

0.937931

5

emov1_baseline_aam

22

0.925217

0.925616

0.935065

0.943571

0.861538

0.906475

6

emov1_baseline_aam

28

0.930435

0.929913

0.932258

0.945255

0.861111

0.939189

7

emov1_baseline_aam

28

0.929565

0.929558

0.932907

0.948742

0.843854

0.94

8

emov1_baseline_am

10

0.944348

0.945629

0.945578

0.963168

0.872727

0.955932

9

emov1_baseline_am

11

0.953043

0.953179

0.958678

0.967919

0.886731

0.955932

10

emov1_baseline_am

13

0.93913

0.940353

0.934028

0.956999

0.86747

0.966443

11

emov1_baseline_am

16

0.947826

0.947414

0.957516

0.96337

0.854237

0.963455

12

emov1_baseline_raam

13

0.883478

0.881926

0.857143

0.917606

0.756579

0.929293

13

emov1_baseline_raam

19

0.887826

0.88496

0.896024

0.921692

0.760148

0.856061

14

emov1_baseline_raam

22

0.923478

0.925309

0.93086

0.947955

0.813056

0.945578

15

emov1_baseline_raam

27

0.923478

0.925692

0.932231

0.943541

0.827586

0.94702

16

emov1_baseline_ram

11

0.944348

0.944411

0.959612

0.952646

0.862745

0.966443

17

emov1_baseline_ram

13

0.949565

0.950262

0.968699

0.957009

0.873065

0.966667

18

emov1_baseline_ram

22

0.949565

0.949649

0.970297

0.958106

0.88746

0.940351

19

emov1_baseline_ram

26

0.956522

0.957442

0.965742

0.963922

0.895425

0.979866

20

emov1_ce_weight_smoouth_baseline

12

0.90087

0.899223

0.887701

0.919897

0.821429

0.926174

21

emov1_ce_weight_smoouth_baseline

15

0.935652

0.935604

0.945274

0.957466

0.851613

0.921986

22

emov1_ce_weight_smoouth_baseline

17

0.933913

0.934235

0.935811

0.954545

0.847134

0.945578

23

emov1_ce_weight_smoouth_baseline

19

0.922609

0.922486

0.917647

0.945921

0.867797

0.902821

24

emov1_ce_weight_smoouth_baseline_aam

21

0.935652

0.935425

0.943274

0.956999

0.854305

0.923611

25

emov1_ce_weight_smoouth_baseline_aam

22

0.94087

0.941815

0.942149

0.96242

0.881789

0.927336

26

emov1_ce_weight_smoouth_baseline_aam

23

0.935652

0.936534

0.935811

0.962212

0.850153

0.932432

27

emov1_ce_weight_smoouth_baseline_aam

29

0.930435

0.929721

0.939444

0.954095

0.837838

0.914894

28

emov1_ce_weight_smoouth_baseline_am

11

0.94087

0.941667

0.965854

0.951311

0.848297

0.952381

29

emov1_ce_weight_smoouth_baseline_am

13

0.946957

0.946945

0.956376

0.954955

0.880795

0.965753

30

emov1_ce_weight_smoouth_baseline_am

16

0.953043

0.953097

0.963816

0.962351

0.878689

0.973154

31

emov1_ce_weight_smoouth_baseline_am

20

0.94087

0.941246

0.961474

0.949027

0.86262

0.951768

32

emov1_ce_weight_smoouth_baseline_raam

8

0.916522

0.916532

0.924031

0.932701

0.803987

0.956522

33

emov1_ce_weight_smoouth_baseline_raam

13

0.936522

0.937412

0.936317

0.955005

0.85625

0.957929

34

emov1_ce_weight_smoouth_baseline_raam

15

0.950435

0.950971

0.964824

0.959633

0.872964

0.970492

35

emov1_ce_weight_smoouth_baseline_raam

20

0.909565

0.913679

0.943144

0.930674

0.782609

0.925267

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.921739

0.921196

0.947712

0.936479

0.817568

0.917241

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.922609

0.923262

0.95114

0.937618

0.810127

0.929487

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.931304

0.931558

0.949097

0.947075

0.834951

0.937705

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.92

0.919552

0.931034

0.941613

0.80678

0.930556

40

emov1_ce_weight_smoouth_baseline_ram

10

0.93913

0.93929

0.940625

0.955702

0.847682

0.969697

41

emov1_ce_weight_smoouth_baseline_ram

13

0.948696

0.948796

0.960526

0.959559

0.871622

0.964169

42

emov1_ce_weight_smoouth_baseline_ram

16

0.92087

0.919124

0.946844

0.932278

0.798535

0.9375

43

emov1_ce_weight_smoouth_baseline_ram

20

0.941739

0.942603

0.959083

0.952113

0.860759

0.957655

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.906087

0.907642

0.93823

0.937843

0.772861

0.873134

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.924348

0.925339

0.942373

0.945055

0.820988

0.92517

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.915652

0.916018

0.939641

0.942149

0.817073

0.874074

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.943478

0.942894

0.95315

0.953425

0.858131

0.969697

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.196522

0.162445

0.467497

0.0180505

0.161121

0.0718563

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.233913

0.178731

0.448642

0.0418848

0.187919

0.120879

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.204348

0.163741

0.461899

0.0353357

0.120219

0.0718563

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.18

0.177661

0.403125

0.0858086

0.198381

0.0352941

Результаты для датасета msp_podcast

experiment

epoch

accuracy

f1_weighted

happy_f1

disgusted_f1

angry_f1

fearful_f1

other_f1

neutral_f1

sad_f1

surprised_f1

0

emov1_baseline

10

0.337011

0.268659

0.393651

0.0

0.463977

0.0

0.0181818

0.3286

0.0

0.0

1

emov1_baseline

16

0.368276

0.301342

0.422866

0.0

0.521277

0.0

0.0

0.383048

0.0373832

0.0

2

emov1_baseline

19

0.347586

0.299376

0.407273

0.0

0.515444

0.0253165

0.0163934

0.353377

0.0857143

0.044586

3

emov1_baseline

20

0.347126

0.289007

0.388571

0.0

0.507868

0.0

0.0

0.338605

0.0529801

0.0617284

4

emov1_baseline_aam

19

0.35954

0.293177

0.416855

0.0

0.5

0.0

0.0173913

0.374138

0.0181818

0.0

5

emov1_baseline_aam

22

0.370575

0.30378

0.432584

0.0

0.522927

0.0

0.0

0.386172

0.0186916

0.0

6

emov1_baseline_aam

28

0.362759

0.293796

0.409241

0.0

0.506912

0.0

0.0166667

0.378281

0.0168067

0.0

7

emov1_baseline_aam

28

0.36

0.297703

0.404908

0.0

0.493882

0.0

0.0168067

0.415439

0.0

0.0

8

emov1_baseline_am

10

0.349425

0.287762

0.335238

0.0

0.515241

0.0

0.017094

0.407717

0.0672269

0.0

9

emov1_baseline_am

11

0.341149

0.283446

0.395722

0.0

0.506616

0.0

0.0

0.333333

0.0816327

0.00706714

10

emov1_baseline_am

13

0.346667

0.285103

0.351074

0.0

0.503145

0.0

0.0142857

0.402837

0.0162602

0.0

11

emov1_baseline_am

16

0.341149

0.286228

0.381887

0.0

0.500511

0.0

0.0142857

0.376563

0.030303

0.0

12

emov1_baseline_raam

13

0.336092

0.277726

0.351307

0.0

0.45679

0.0

0.032

0.407018

0.036036

0.0

13

emov1_baseline_raam

19

0.347126

0.284426

0.395689

0.0

0.48753

0.0

0.0

0.355597

0.0650407

0.0135135

14

emov1_baseline_raam

22

0.343448

0.278799

0.373191

0.0

0.479724

0.0

0.0

0.381927

0.0

0.0

15

emov1_baseline_raam

27

0.333793

0.289299

0.366744

0.0

0.451923

0.0

0.0347826

0.396346

0.0504202

0.0831025

16

emov1_baseline_ram

11

0.358621

0.288378

0.427861

0.0

0.504886

0.0

0.0

0.338742

0.030303

0.0

17

emov1_baseline_ram

13

0.371494

0.303587

0.412926

0.0

0.51845

0.0

0.0

0.413074

0.0

0.0

18

emov1_baseline_ram

22

0.35954

0.297228

0.411541

0.0

0.505561

0.0

0.0

0.391534

0.0178571

0.00696864

19

emov1_baseline_ram

26

0.337931

0.284455

0.38015

0.0

0.486275

0.0

0.0

0.384668

0.0242424

0.00660066

20

emov1_ce_weight_smoouth_baseline

12

0.33977

0.314189

0.398034

0.0264901

0.478873

0.0

0.0142857

0.397083

0.119048

0.143158

21

emov1_ce_weight_smoouth_baseline

15

0.324598

0.309508

0.390077

0.0842105

0.513327

0.0273973

0.0487805

0.318232

0.0338983

0.186125

22

emov1_ce_weight_smoouth_baseline

17

0.338391

0.316241

0.373418

0.0581395

0.492078

0.0363636

0.0350877

0.379613

0.057971

0.200913

23

emov1_ce_weight_smoouth_baseline

19

0.31954

0.298791

0.37931

0.0650888

0.513514

0.0517241

0.0

0.276215

0.0606061

0.20743

24

emov1_ce_weight_smoouth_baseline_aam

21

0.355862

0.302597

0.392931

0.0

0.504407

0.0

0.0

0.353535

0.0175439

0.151329

25

emov1_ce_weight_smoouth_baseline_aam

22

0.378391

0.327315

0.435675

0.0

0.557118

0.0

0.0

0.366197

0.0338983

0.148649

26

emov1_ce_weight_smoouth_baseline_aam

23

0.362299

0.331141

0.410822

0.0

0.563307

0.0

0.0

0.342222

0.0939597

0.232843

27

emov1_ce_weight_smoouth_baseline_aam

29

0.354943

0.323443

0.400385

0.0

0.535097

0.0

0.0163934

0.391687

0.0

0.179739

28

emov1_ce_weight_smoouth_baseline_am

11

0.281379

0.234386

0.145015

0.0

0.488636

0.0

0.0

0.260664

0.0

0.262887

29

emov1_ce_weight_smoouth_baseline_am

13

0.289195

0.26361

0.258564

0.0114286

0.484065

0.0152672

0.034188

0.297324

0.0

0.207268

30

emov1_ce_weight_smoouth_baseline_am

16

0.313563

0.278337

0.379714

0.0446429

0.460648

0.0

0.0

0.333007

0.0

0.0831169

31

emov1_ce_weight_smoouth_baseline_am

20

0.305287

0.279934

0.288325

0.0330033

0.498246

0.0

0.0

0.347107

0.0185185

0.167969

32

emov1_ce_weight_smoouth_baseline_raam

8

0.330115

0.309172

0.365064

0.0512821

0.522442

0.0598291

0.0

0.350249

0.0178571

0.186047

33

emov1_ce_weight_smoouth_baseline_raam

13

0.328276

0.302444

0.385933

0.0

0.521127

0.057377

0.0

0.323851

0.0504202

0.15917

34

emov1_ce_weight_smoouth_baseline_raam

15

0.332414

0.311462

0.390698

0.0627803

0.520699

0.0529801

0.0178571

0.352352

0.0437956

0.137809

35

emov1_ce_weight_smoouth_baseline_raam

20

0.330575

0.317097

0.374875

0.0875421

0.524379

0.139706

0.0

0.338591

0.0508475

0.196078

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.356322

0.288573

0.290576

0.0

0.520179

0.0190476

0.0

0.409622

0.0

0.0994152

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.336552

0.308151

0.37265

0.0519481

0.48855

0.112994

0.0

0.386163

0.0

0.149688

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.333333

0.312217

0.401739

0.0803213

0.527103

0.117647

0.0185185

0.304147

0.0

0.188312

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.349425

0.314992

0.402062

0.0655738

0.513004

0.0882353

0.0175439

0.372753

0.0

0.126582

40

emov1_ce_weight_smoouth_baseline_ram

10

0.306667

0.270568

0.255656

0.0

0.490694

0.0

0.0183486

0.351421

0.0

0.174298

41

emov1_ce_weight_smoouth_baseline_ram

13

0.329655

0.296814

0.357912

0.0242424

0.523383

0.0173913

0.0

0.351421

0.0186916

0.123711

42

emov1_ce_weight_smoouth_baseline_ram

16

0.305747

0.250824

0.408528

0.0869565

0.423898

0.0204082

0.0

0.220207

0.0192308

0.0493151

43

emov1_ce_weight_smoouth_baseline_ram

20

0.31954

0.297028

0.346715

0.090566

0.48227

0.0

0.0

0.37931

0.0186916

0.138889

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.325057

0.254954

0.285714

0.0

0.461432

0.0

0.0186916

0.37538

0.0

0.00687285

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.315402

0.273269

0.378878

0.0

0.441454

0.0

0.0172414

0.355838

0.0

0.0520833

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.322759

0.291901

0.35059

0.0

0.501845

0.0

0.0408163

0.359673

0.0

0.128571

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.342069

0.309732

0.373514

0.0315789

0.511677

0.0

0.0

0.389294

0.0

0.156556

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.104828

0.0985822

0.143204

0.113445

0.0694698

0.0

0.0515222

0.178462

0.0

0.0

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.148046

0.14673

0.223919

0.0559006

0.109272

0.0377358

0.0725275

0.274272

0.0

0.0

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.108046

0.0896537

0.223206

0.103751

0.0379507

0.0

0.0309278

0.0965517

0.0

0.0

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.133793

0.142338

0.150565

0.0969388

0.227222

0.0150376

0.0727273

0.166163

0.0

0.0754717

Результаты для датасета repv-s

experiment

epoch

accuracy

f1_weighted

happy_f1

angry_f1

other_f1

sad_f1

0

emov1_baseline

10

0.392857

0.409105

0.2

0.533333

0.428571

0.461538

1

emov1_baseline

16

0.25

0.232287

0.25

0.307692

0.315789

0.0

2

emov1_baseline

19

0.285714

0.261439

0.25

0.4

0.133333

0.347826

3

emov1_baseline

20

0.25

0.250186

0.285714

0.2

0.3

0.181818

4

emov1_baseline_aam

19

0.25

0.265693

0.25

0.545455

0.266667

0.0

5

emov1_baseline_aam

22

0.214286

0.218487

0.352941

0.444444

0.133333

0.0

6

emov1_baseline_aam

28

0.285714

0.294718

0.470588

0.666667

0.142857

0.0

7

emov1_baseline_aam

28

0.25

0.272222

0.4

0.5

0.222222

0.0

8

emov1_baseline_am

10

0.214286

0.204082

0.0

0.428571

0.142857

0.285714

9

emov1_baseline_am

11

0.285714

0.237575

0.0

0.4

0.142857

0.470588

10

emov1_baseline_am

13

0.214286

0.198079

0.0

0.352941

0.142857

0.333333

11

emov1_baseline_am

16

0.214286

0.215152

0.0

0.266667

0.333333

0.181818

12

emov1_baseline_raam

13

0.321429

0.347346

0.222222

0.363636

0.421053

0.333333

13

emov1_baseline_raam

19

0.285714

0.327734

0.428571

0.4

0.153846

0.444444

14

emov1_baseline_raam

22

0.285714

0.314269

0.363636

0.461538

0.166667

0.363636

15

emov1_baseline_raam

27

0.25

0.247024

0.375

0.0

0.2

0.444444

16

emov1_baseline_ram

11

0.25

0.199038

0.153846

0.375

0.0

0.4

17

emov1_baseline_ram

13

0.178571

0.188383

0.166667

0.307692

0.142857

0.166667

18

emov1_baseline_ram

22

0.25

0.235819

0.375

0.333333

0.235294

0.0

19

emov1_baseline_ram

26

0.357143

0.347905

0.25

0.363636

0.380952

0.375

20

emov1_ce_weight_smoouth_baseline

12

0.321429

0.309524

0.0

0.444444

0.333333

0.444444

21

emov1_ce_weight_smoouth_baseline

15

0.357143

0.363509

0.266667

0.6

0.347826

0.25

22

emov1_ce_weight_smoouth_baseline

17

0.285714

0.280068

0.181818

0.363636

0.347826

0.181818

23

emov1_ce_weight_smoouth_baseline

19

0.285714

0.278788

0.266667

0.545455

0.133333

0.266667

24

emov1_ce_weight_smoouth_baseline_aam

21

0.25

0.255102

0.166667

0.5

0.142857

0.285714

25

emov1_ce_weight_smoouth_baseline_aam

22

0.25

0.255364

0.0

0.461538

0.266667

0.285714

26

emov1_ce_weight_smoouth_baseline_aam

23

0.214286

0.214556

0.0

0.181818

0.266667

0.375

27

emov1_ce_weight_smoouth_baseline_aam

29

0.178571

0.150794

0.0

0.0

0.222222

0.333333

28

emov1_ce_weight_smoouth_baseline_am

11

0.321429

0.288265

0.0

0.5

0.25

0.428571

29

emov1_ce_weight_smoouth_baseline_am

13

0.357143

0.35454

0.166667

0.5

0.315789

0.461538

30

emov1_ce_weight_smoouth_baseline_am

16

0.285714

0.314199

0.307692

0.5

0.210526

0.307692

31

emov1_ce_weight_smoouth_baseline_am

20

0.321429

0.294334

0.0

0.375

0.380952

0.363636

32

emov1_ce_weight_smoouth_baseline_raam

8

0.285714

0.229592

0.142857

0.428571

0.0

0.5

33

emov1_ce_weight_smoouth_baseline_raam

13

0.25

0.208929

0.266667

0.333333

0.0

0.375

34

emov1_ce_weight_smoouth_baseline_raam

15

0.25

0.226679

0.181818

0.266667

0.153846

0.352941

35

emov1_ce_weight_smoouth_baseline_raam

20

0.285714

0.278414

0.142857

0.5

0.153846

0.4

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.321429

0.268797

0.166667

0.666667

0.0

0.421053

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.392857

0.347368

0.4

0.8

0.0

0.421053

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.285714

0.27551

0.285714

0.666667

0.0

0.333333

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.321429

0.3

0.4

0.6

0.0

0.4

40

emov1_ce_weight_smoouth_baseline_ram

10

0.285714

0.261735

0.25

0.571429

0.0

0.4

41

emov1_ce_weight_smoouth_baseline_ram

13

0.178571

0.151648

0.307692

0.4

0.0

0.0

42

emov1_ce_weight_smoouth_baseline_ram

16

0.357143

0.345549

0.434783

0.5

0.166667

0.4

43

emov1_ce_weight_smoouth_baseline_ram

20

0.25

0.254175

0.444444

0.25

0.153846

0.235294

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.25

0.219388

0.166667

0.571429

0.0

0.285714

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.25

0.233707

0.0

0.363636

0.153846

0.470588

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.25

0.257542

0.181818

0.363636

0.153846

0.4

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.214286

0.224097

0.0

0.5

0.142857

0.307692

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.285714

0.305382

0.363636

0.545455

0.125

0.307692

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.25

0.260902

0.2

0.5

0.210526

0.166667

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.214286

0.222715

0.235294

0.4

0.133333

0.181818

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.285714

0.241758

0.0

0.461538

0.4

0.0

Результаты для датасета repv

experiment

epoch

accuracy

f1_weighted

happy_f1

angry_f1

other_f1

sad_f1

0

emov1_baseline

10

0.390663

0.388363

0.280702

0.48913

0.473239

0.198582

1

emov1_baseline

16

0.429975

0.426333

0.336134

0.551351

0.493075

0.234375

2

emov1_baseline

19

0.380835

0.388699

0.306306

0.484472

0.392523

0.344498

3

emov1_baseline

20

0.395577

0.399204

0.288288

0.462428

0.463277

0.291139

4

emov1_baseline_aam

19

0.373464

0.383065

0.366667

0.4125

0.451977

0.22973

5

emov1_baseline_aam

22

0.39312

0.38848

0.276423

0.425806

0.496084

0.222222

6

emov1_baseline_aam

28

0.371007

0.37442

0.283186

0.425

0.448179

0.245614

7

emov1_baseline_aam

28

0.371007

0.368919

0.290323

0.357143

0.494845

0.192

8

emov1_baseline_am

10

0.329238

0.35356

0.22449

0.426966

0.377483

0.327485

9

emov1_baseline_am

11

0.341523

0.344273

0.230088

0.415301

0.324138

0.396135

10

emov1_baseline_am

13

0.36855

0.377722

0.189474

0.431579

0.428135

0.363636

11

emov1_baseline_am

16

0.34398

0.35715

0.30303

0.414201

0.365325

0.322981

12

emov1_baseline_raam

13

0.41769

0.388376

0.214286

0.405063

0.547564

0.188034

13

emov1_baseline_raam

19

0.390663

0.396063

0.259259

0.464646

0.448485

0.324675

14

emov1_baseline_raam

22

0.410319

0.396475

0.273684

0.5

0.481481

0.214876

15

emov1_baseline_raam

27

0.395577

0.399745

0.363636

0.4

0.479564

0.269504

16

emov1_baseline_ram

11

0.402948

0.39894

0.31068

0.450867

0.489474

0.233577

17

emov1_baseline_ram

13

0.39312

0.392577

0.329897

0.429448

0.497409

0.195489

18

emov1_baseline_ram

22

0.390663

0.400029

0.355556

0.448718

0.459384

0.266667

19

emov1_baseline_ram

26

0.398034

0.402353

0.342342

0.447368

0.48

0.248366

20

emov1_ce_weight_smoouth_baseline

12

0.422604

0.414998

0.371681

0.362069

0.524752

0.285714

21

emov1_ce_weight_smoouth_baseline

15

0.366093

0.378061

0.345455

0.415094

0.438889

0.244898

22

emov1_ce_weight_smoouth_baseline

17

0.351351

0.361686

0.32

0.368098

0.430168

0.251572

23

emov1_ce_weight_smoouth_baseline

19

0.378378

0.386921

0.342857

0.450549

0.412121

0.305085

24

emov1_ce_weight_smoouth_baseline_aam

21

0.378378

0.390148

0.344828

0.423841

0.435028

0.301205

25

emov1_ce_weight_smoouth_baseline_aam

22

0.39312

0.394648

0.356589

0.413793

0.467742

0.25974

26

emov1_ce_weight_smoouth_baseline_aam

23

0.400491

0.40181

0.347107

0.438356

0.47027

0.270588

27

emov1_ce_weight_smoouth_baseline_aam

29

0.410319

0.402001

0.36036

0.378788

0.509804

0.244898

28

emov1_ce_weight_smoouth_baseline_am

11

0.398034

0.394718

0.254902

0.471264

0.497354

0.21875

29

emov1_ce_weight_smoouth_baseline_am

13

0.410319

0.403769

0.307692

0.465409

0.498741

0.225564

30

emov1_ce_weight_smoouth_baseline_am

16

0.383292

0.388354

0.272727

0.476821

0.47619

0.211268

31

emov1_ce_weight_smoouth_baseline_am

20

0.39312

0.397878

0.285714

0.4875

0.481481

0.225352

32

emov1_ce_weight_smoouth_baseline_raam

8

0.388206

0.395059

0.296875

0.472527

0.40625

0.366864

33

emov1_ce_weight_smoouth_baseline_raam

13

0.375921

0.381504

0.35

0.42623

0.379747

0.362637

34

emov1_ce_weight_smoouth_baseline_raam

15

0.375921

0.383793

0.325203

0.407186

0.388889

0.393443

35

emov1_ce_weight_smoouth_baseline_raam

20

0.324324

0.334577

0.275362

0.423913

0.323232

0.309524

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.380835

0.399102

0.294737

0.430108

0.432258

0.379888

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.400491

0.421002

0.302521

0.410596

0.478528

0.40678

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.405405

0.424267

0.336283

0.444444

0.487252

0.345324

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.41769

0.433215

0.338983

0.493506

0.458716

0.391534

40

emov1_ce_weight_smoouth_baseline_ram

10

0.378378

0.392196

0.336449

0.497238

0.42515

0.261438

41

emov1_ce_weight_smoouth_baseline_ram

13

0.361179

0.37965

0.304762

0.449438

0.428152

0.268657

42

emov1_ce_weight_smoouth_baseline_ram

16

0.361179

0.376119

0.423077

0.384

0.410405

0.265734

43

emov1_ce_weight_smoouth_baseline_ram

20

0.36855

0.388047

0.3

0.414286

0.433526

0.337349

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.339066

0.351732

0.213592

0.402174

0.44186

0.225806

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.388206

0.405904

0.357724

0.427481

0.448864

0.33526

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.395577

0.407388

0.333333

0.459627

0.461538

0.302632

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.375921

0.393167

0.314815

0.433735

0.459302

0.28

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.383292

0.357075

0.272727

0.316667

0.493274

0.193548

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.407862

0.356708

0.288462

0.275229

0.534447

0.141593

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.400491

0.354917

0.276923

0.372881

0.522876

0.0645161

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.422604

0.387699

0.197802

0.428571

0.530337

0.206897

Результаты для датасета resd

experiment

epoch

accuracy

f1_weighted

happy_f1

disgusted_f1

angry_f1

fearful_f1

other_f1

neutral_f1

sad_f1

0

emov1_baseline

10

0.217857

0.145613

0.247788

0.0

0.390977

0.0

0.0

0.256757

0.0909091

1

emov1_baseline

16

0.242857

0.157459

0.283186

0.0

0.42735

0.0

0.0

0.3375

0.0

2

emov1_baseline

19

0.267857

0.205569

0.315789

0.0

0.455446

0.0425532

0.0

0.333333

0.282609

3

emov1_baseline

20

0.257143

0.185994

0.311111

0.0

0.471429

0.0

0.0754717

0.296296

0.105263

4

emov1_baseline_aam

19

0.217857

0.146563

0.242424

0.0

0.333333

0.0

0.0

0.347222

0.0784314

5

emov1_baseline_aam

22

0.25

0.170063

0.314286

0.0

0.413793

0.0

0.0444444

0.321168

0.05

6

emov1_baseline_aam

28

0.242857

0.173741

0.289855

0.0

0.380952

0.0

0.0

0.330097

0.205882

7

emov1_baseline_aam

28

0.235714

0.166537

0.285714

0.0

0.343434

0.0

0.0434783

0.338028

0.136364

8

emov1_baseline_am

10

0.246429

0.176671

0.296296

0.0

0.514286

0.0

0.0408163

0.282828

0.0444444

9

emov1_baseline_am

11

0.275

0.222223

0.353982

0.0

0.495238

0.0

0.185185

0.302521

0.186047

10

emov1_baseline_am

13

0.25

0.187706

0.253165

0.0

0.473684

0.0

0.184615

0.317073

0.0357143

11

emov1_baseline_am

16

0.282143

0.222766

0.396226

0.0

0.46729

0.0

0.193548

0.335766

0.121212

12

emov1_baseline_raam

13

0.242857

0.176768

0.210526

0.0

0.417582

0.0

0.12766

0.333333

0.12766

13

emov1_baseline_raam

19

0.257143

0.187119

0.34188

0.0

0.383333

0.0

0.0487805

0.304636

0.217391

14

emov1_baseline_raam

22

0.242857

0.169604

0.243902

0.0

0.448598

0.0

0.047619

0.311377

0.102564

15

emov1_baseline_raam

27

0.25

0.184876

0.288136

0.0

0.384615

0.0

0.0869565

0.338624

0.181818

16

emov1_baseline_ram

11

0.25

0.177654

0.324324

0.0

0.409836

0.0

0.0

0.287671

0.20339

17

emov1_baseline_ram

13

0.285714

0.209697

0.403846

0.0

0.465517

0.0

0.0487805

0.304094

0.217391

18

emov1_baseline_ram

22

0.267857

0.199883

0.38806

0.0

0.463158

0.0

0.0434783

0.276316

0.196078

19

emov1_baseline_ram

26

0.25

0.190313

0.35514

0.0

0.474227

0.0

0.0

0.265734

0.209302

20

emov1_ce_weight_smoouth_baseline

12

0.214286

0.187012

0.215054

0.05

0.309859

0.126984

0.04

0.310078

0.26

21

emov1_ce_weight_smoouth_baseline

15

0.264286

0.248627

0.21978

0.156863

0.473118

0.282828

0.0454545

0.290909

0.241379

22

emov1_ce_weight_smoouth_baseline

17

0.275

0.23724

0.194444

0.0888889

0.487805

0.232558

0.0465116

0.333333

0.253968

23

emov1_ce_weight_smoouth_baseline

19

0.282143

0.262441

0.235294

0.363636

0.477064

0.283333

0.0487805

0.243243

0.148148

24

emov1_ce_weight_smoouth_baseline_aam

21

0.242857

0.174885

0.235294

0.0

0.470588

0.0

0.0

0.318182

0.181818

25

emov1_ce_weight_smoouth_baseline_aam

22

0.214286

0.178315

0.197802

0.0

0.601942

0.0

0.0

0.222222

0.196721

26

emov1_ce_weight_smoouth_baseline_aam

23

0.235714

0.204268

0.155844

0.0

0.615385

0.0

0.125

0.217391

0.3125

27

emov1_ce_weight_smoouth_baseline_aam

29

0.242857

0.230691

0.166667

0.0

0.585366

0.25974

0.0465116

0.293333

0.212766

28

emov1_ce_weight_smoouth_baseline_am

11

0.253571

0.211748

0.101266

0.0526316

0.487395

0.356164

0.0888889

0.312057

0.0

29

emov1_ce_weight_smoouth_baseline_am

13

0.25

0.211817

0.1875

0.181818

0.409449

0.119403

0.206897

0.333333

0.0

30

emov1_ce_weight_smoouth_baseline_am

16

0.275

0.246729

0.30303

0.125

0.444444

0.246154

0.208333

0.32

0.0

31

emov1_ce_weight_smoouth_baseline_am

20

0.260714

0.219438

0.207792

0.212121

0.416667

0.222222

0.0930233

0.326241

0.0

32

emov1_ce_weight_smoouth_baseline_raam

8

0.289286

0.247354

0.215686

0.15

0.494624

0.328125

0.0

0.385321

0.0952381

33

emov1_ce_weight_smoouth_baseline_raam

13

0.307143

0.260678

0.243478

0.0

0.505747

0.362319

0.0465116

0.425532

0.177778

34

emov1_ce_weight_smoouth_baseline_raam

15

0.289286

0.27322

0.25

0.130435

0.537634

0.298851

0.137931

0.339286

0.16129

35

emov1_ce_weight_smoouth_baseline_raam

20

0.303571

0.281431

0.175824

0.25

0.615385

0.36478

0.12766

0.307692

0.047619

36

emov1_ce_weight_smoouth_baseline_raam_stats

45

0.257143

0.173133

0.126984

0.0

0.521008

0.166667

0.0

0.328042

0.0

37

emov1_ce_weight_smoouth_baseline_raam_stats

53

0.25

0.20484

0.288462

0.0

0.394366

0.270677

0.0465116

0.349206

0.0

38

emov1_ce_weight_smoouth_baseline_raam_stats

57

0.260714

0.245691

0.197531

0.196078

0.505495

0.243902

0.142857

0.366197

0.0

39

emov1_ce_weight_smoouth_baseline_raam_stats

65

0.257143

0.209412

0.241758

0.0512821

0.460177

0.241935

0.0

0.349515

0.0526316

40

emov1_ce_weight_smoouth_baseline_ram

10

0.278571

0.218254

0.215054

0.0

0.556701

0.311111

0.0

0.346154

0.0

41

emov1_ce_weight_smoouth_baseline_ram

13

0.314286

0.279572

0.29703

0.212766

0.62069

0.314815

0.0

0.321168

0.114286

42

emov1_ce_weight_smoouth_baseline_ram

16

0.307143

0.271159

0.355828

0.196078

0.474576

0.350515

0.0

0.380952

0.0588235

43

emov1_ce_weight_smoouth_baseline_ram

20

0.282143

0.257227

0.289474

0.153846

0.586667

0.336449

0.0

0.289474

0.0512821

44

emov1_ce_weight_smoouth_baseline_ram_stats

20

0.242857

0.138381

0.0677966

0.0

0.468966

0.0

0.0888889

0.304569

0.0

45

emov1_ce_weight_smoouth_baseline_ram_stats

28

0.235714

0.169549

0.325581

0.0

0.358209

0.0

0.0851064

0.327869

0.047619

46

emov1_ce_weight_smoouth_baseline_ram_stats

29

0.239286

0.19899

0.264151

0.0

0.416667

0.08

0.123077

0.333333

0.142857

47

emov1_ce_weight_smoouth_baseline_ram_stats

40

0.228571

0.174131

0.333333

0.0526316

0.35443

0.0

0.0

0.282353

0.181818

48

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

11

0.203571

0.142829

0.129032

0.28125

0.0416667

0.30137

0.047619

0.173913

0.0

49

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

19

0.267857

0.227227

0.190476

0.326923

0.0425532

0.369863

0.258065

0.333333

0.0512821

50

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

22

0.307143

0.266235

0.222222

0.335135

0.153846

0.466019

0.0952381

0.451613

0.114286

51

emov1_russain_ce_weight_smoouth_baseline_raam_stats_765

40

0.289286

0.243765

0.153846

0.360656

0.145455

0.452055

0.202899

0.3

0.0588235

TSNE-визулазиции для baseline + различные функции потерь

am-softmax
aam-softmax
ram-softmax
raam-softmax

p.s. подпишись

Комментарии (0)