Варианты заданий повышенной сложности



 

Реализовать классификатор на основе нейронной сети, используя нижеуказанные наборы данных:

 

1.Spam dataset:

https://archive.ics.uci.edu/ml/datasets/spambase

 

2. SMS Spam dataset:

https://archive.ics.uci.edu/ml/datasets/sms+spam+collection

 

В программной реализации на Python можно использовать mlp (multi- layer perceptron):

https://scikit-learn.org/stable/modules/neural_networks_supervised.html

 

Разбить исходный набор данных на обучающую и тестовую выборки в пропорции 80/20.

Выполнить обучение и тестирование. Оценить время разработки классификатора, вычислить показатели качества: Accuracy (общая точность), Specificity (специфичность), Sensitivity (чувствительность), Precision (точность), F1, а также функцию потерь Loss.

 

 

Варианты заданий очень повышенной сложности

Реализовать классификатор на основе нейронной сети, используя RNN (SimpleRNN), LSTM, GRU. Число слоев – на собственное усмотрение.

Сравнить результаты разработки.

 

 

P.S. Можно попробовать применить эволюционный алгоритм для настройки весов сети. Можно многократно реализовать разработку сети с последующим выбором лучшего варианта.

 

Библиографический список

1. Ясницкий Л.Н. Введение в искусственный интеллект: учеб. пособие для студ. высш. учеб. заведений. – М.: Издательский центр «Академия» , 2005. – 176 с.

2. Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: учеб. пособие для студ. высш. учеб. заведений. – М.: Издательство МГТУ им. Н.Э. Баумана, 2004. – 400 с.

3. Минский М., Пейперт С. Персептроны. – М.: Мир, 1971. – 258 с.

4. Мкртчян С.О. Нейроны и нейронные сети. Введение в теорию формальных нейронов. – М.: Энергия, 1971.

5. Пропой А.И. Элементы теории оптимальных дискретных процессов. – М.: Наука, Главная редакция физико-математической литературы. – 1973. – 254 с.


Дата добавления: 2019-11-16; просмотров: 387; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!