jax.nn
模块#
用于神经网络库的常用函数。
激活函数#
修正线性单元激活函数。 |
|
修正线性单元 6 激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
稀疏加函数。 |
稀疏 Sigmoid 激活函数。 |
|
|
Soft-sign 激活函数。 |
|
SiLU (又名 swish) 激活函数。 |
|
SiLU (又名 swish) 激活函数。 |
|
Log-sigmoid 激活函数。 |
|
Leaky ReLU (带泄漏的线性整流单元) 激活函数。 |
|
Hard Sigmoid 激活函数。 |
|
Hard SiLU (swish) 激活函数 |
|
Hard SiLU (swish) 激活函数 |
|
Hard \(\mathrm{tanh}\) 激活函数。 |
|
指数线性单元激活函数。 |
|
连续可微的指数线性单元激活函数。 |
|
缩放的指数线性单元激活函数。 |
|
高斯误差线性单元激活函数。 |
|
门控线性单元激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
其他函数#
|
Softmax 函数。 |
|
Log-Softmax 函数。 |
Log-sum-exp 规约。 |
|
|
通过减去 |
|
对给定索引进行 one-hot 编码。 |
|
缩放的点积注意力函数。 |