题目描述
在机器学习中,对数据进行归一化处理是一种常用的技术。
将数据从各种各样分布调整为平均值为 $0$、方差为 $1$ 的标准分布,在很多情况下都可以有效地加速模型的训练。
这里假定需要处理的数据为 $n$ 个整数 $a_1, a_2, \\cdots, a_n$。
这组数据的平均值:
$\\bar{a} = \\frac{a_1 + a_2 + \\cdots + a_n}{n}$
方差:
$D(a) = \\frac{1}{n} \\sum_{i=1}^{n}(a_i - \\bar{a})^2$
使用如下函数处理所有数据,得到的 $n$ 个浮点数 $f(a_1), f(a_2), \\cdots, f(a_n)$ 即满足平均值为 $0$ 且方差为 $1$:
$f(a_i) = \\frac{a_i - \\bar{a}}{\\sqrt{D(a)}}$
输入格式
第一行包含一个整数 $n$,表示待处理的整数个数。
第二行包含空格分隔的 $n$ 个整数,依次表示 $a_1, a_2, \\cdots, a_n$。
输出格式
输出共 $n$ 行,每行一个浮点数,依次表示按上述方法归一化处理后的数据 $f(a_1), f(a_2), \\cdots, f(a_n)$。
如果你输出的每个浮点数与参考结果相比,均满足绝对误差不大于 $10^{-4}$,则该测试点满分,否则不得分。
数据范围
全部的测试数据保证 $n, |a_i| \\le 1000$,其中 $|a_i|$ 表示 $a_i$ 的绝对值。
且输入的 $n$ 个整数 $a_1, a_2, \\cdots, a_n$ 满足:方差 $D(a) \\ge 1$。
输入样例:
7
-4 293 0 -22 12 654 1000
输出样例:
-0.7485510379073613
0.04504284674812264
-0.7378629047806881
-0.7966476369773906
-0.7057985054006686
1.0096468614303775
1.9341703768876082
样例解释
平均值:$\\bar{a} \\approx 276.14285714285717$
方差:$D(a) \\approx 140060.69387755104$
标准差:$\\sqrt{D(a)} \\approx 374.24683549437134$
C++ 代码
#include <bits/stdc++.h>
using namespace std;
int main(){
int n[1001], sum;
double over_a = 0;
double d = 0;
cin >> sum;
for(int i = 0; i < sum; i ++){
cin >> n[i];
over_a += n[i];
}
over_a = over_a / sum;
for(int i = 0; i < sum; i ++){
d += ((n[i] - over_a) * (n[i] - over_a));
}
d = d / sum;
for(int i = 0; i < sum; i ++){
printf("%.16f\n", (n[i] - over_a) / sqrt(d));
}
return 0;
}
采用 sqrt 和自乘,与采用pow函数,这两个时间上差异大吗
刚刚看了一下,pow函数有专门为平方做优化,输入pow(x,2),返回x*x。。。