[LAB] Model Training and Improvement - уточняване на условията
Здравейте,
Направих втория ЛАБ, но някои от условията не мога да разтълкувам еднозначно и затова не съм сигурен дали съм извършил правилните действия. Въпросите са два:
- Задача 6: "...Evaluate the algorithm once again, using a standard scoring method which combines precision and recall." - Не разбирам коя мярка трябвая точно да се използва тук, защото
f1_score
илиaverage_precision_score
? И двете метрики обединяват по някакъв начин precision и recall. Предполагам, че е F1, защото беше споменат на лекцията, но все пак искам да съм сигурен. Има разлика между резултатите в двете метрики. - Задача 7: "Save the grid search result in the
grid_search
variable. Don't forget to use the better scoring model that you obtained in the previous task." - Тук не разбирам за този scoring model какво точно се има на предвид. В предната задача се получава единствено да речемf1_score
и не се прави модел. Как това може да се използва в контекста на задачата, в която се изизква да се намериgrid_search = GridSearchCV(...)
? Функцията приема модел и речник като параметри. Нито моделът е 'по-добър' модел, нито се използва някакъв тип метрика.
Отговарям ти, както аз съм ги разбрал, дали е вярно не знам.
1. - на 6. и аз използвах f1
2. мисля има предвид ''по-удачния'' score, който си използвал в 6. Тоест именно ''f1_score''
grid_search = GridSearchCV(log_reg, param_grid, scoring = 'f1')
И аз мисля, че е това. Просто, когато правих ЛАБ-а нямах поглед върху цялата картина и много се чудих какво може да е.
Здравейте,
Аз не успях да разбера само как да намеря precision и recall?
Гледах лекцията, търсих и в интернет, но нещо не мога да се ориентирам как да ги намеря двете, от което след това вече да продължа с F1 Score?
Ако някой може да ми помогне ще съм много благодарен :)
Аз го правя по този начин.
Просто импортваш функцията, която ти трябва от
metrics
и после като аргументи подаваш тестовите лейбъли и предвидените лейбъли. Функцията изчислява по формулите, които ги имаше на лекцията. Можеш и да си принтирашconfusion_matrix
лесно, за по-наглено:Няма нужда да намираш precision и recall отделно.
Директно използваш метриката f1_score.
from sklearn.metrics import f1_score
Благодаря Ви за отговорите.
Мисля, че успях да направя нещо, а дали е вярно вече ще стане ясно на по - късен етап.