Logo南极PythonKaggle竞赛:宠物吸引力预测

Kaggle竞赛:宠物吸引力预测

发表于2022-01-15
cover of previous post
上一篇
目标检测:Two-stage
RPN寻找每一个anchor匹配到的GT box,所以是多对一(不一定每个anchor都能找到匹配的GT box,原因见第三行) 假设有m个GT box,n个anchor,则有一个mxn的矩阵M, M[i,j]代表第j个anchor与第i个GT box之间的IOU anchor和GT...
cover of next post
下一篇
交叉验证时划分数据的方式
交叉验证是机器学习中常用的一种策略,其核心是对数据集进行划分,本文介绍sklearn中的3种交叉验证时划分数据集的方法: 123KFoldStratifiedKFoldGroupKFold 这里来举例说明各个方法的使用。 先来导入这些方法,并创建一个简单的数据集: 12345from sklearn.model_selection import KFold,StratifiedKFold,GroupKFoldx=[1,2,3,4,5,6,7,8,9,10]# 特征y=[0,0,0,0,0,1,1,1,1,1]# 标签group=['a','a','a','b','b','b','b','c','c','c']# 样本所在的组 KFoldKFold只需要特征x就能够完成数据划分 123kf = KFold(n_splits=3,shuffle=True)#...
公告
本站内容的最终版本将发布在微信公众号[南极Python]
最新文章
从零开始实现YOLOv3
从零开始实现YOLOv32025-05-13
从零开始实现YOLOv1
从零开始实现YOLOv12025-05-13
轻量级大语言模型MiniMind源码解读(一):如何从头训练tokenizer ?
轻量级大语言模型MiniMind源码解读(一):如何从头训练tokenizer ?2025-05-10
LLM指令微调:训练一个人工智能助手-大模型炼丹术(八)
LLM指令微调:训练一个人工智能助手-大模型炼丹术(八)2025-04-10
LLM微调:训练一个垃圾邮件分类器-大模型炼丹术(七)
LLM微调:训练一个垃圾邮件分类器-大模型炼丹术(七)2025-03-23
©2025 By Fuhanshi