jax.nn
模块#
神经网络库的常用函数。
激活函数#
线性整流单元激活函数。 |
|
线性整流单元 6 激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
稀疏加函数。 |
稀疏 sigmoid 激活函数。 |
|
|
软符号激活函数。 |
|
SiLU(又名 swish)激活函数。 |
|
SiLU(又名 swish)激活函数。 |
|
对数 sigmoid 激活函数。 |
|
泄漏整流线性单元激活函数。 |
|
硬 sigmoid 激活函数。 |
|
硬 SiLU (swish) 激活函数 |
|
硬 SiLU (swish) 激活函数 |
|
硬 \(\mathrm{tanh}\) 激活函数。 |
|
指数线性单元激活函数。 |
|
连续可微指数线性单元激活。 |
|
缩放指数线性单元激活。 |
|
高斯误差线性单元激活函数。 |
|
门控线性单元激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
其他函数#
|
Softmax 函数。 |
|
对数 Softmax 函数。 |
对数求和指数归约。 |
|
|
通过减去 |
|
对给定的索引进行独热编码。 |
|
缩放点积注意力函数。 |