当然 0d 数组是标量,但 Numpy 似乎并不这么认为......我是否遗漏了什么或者我只是误解了这个概念?

>>> foo = numpy.array(1.11111111111, numpy.float64)
>>> numpy.ndim(foo)
0
>>> numpy.isscalar(foo)
False
>>> foo.item()
1.11111111111

最佳答案

人们不应该想太多。这最终对个人的心理健康和长寿有好处。

Numpy 标量类型的奇怪情况是因为没有优雅且一致的方法将 1x1 矩阵降级为标量类型。尽管在数学上它们是相同的东西,但它们由非常不同的代码处理。

如果你一直在做任何数量的科学代码,最终你会希望像 max(a) 这样的东西可以处理各种大小的矩阵,甚至是标量。从数学上讲,这是完全合理的预期。然而对于程序员来说,这意味着无论在 Numpy 中出现什么标量都应该具有 .shape 和 .ndim 属性,因此至少 ufunc 不必对其输入进行显式类型检查,以获取 Numpy 中 21 种可能的标量类型。

另一方面,它们还应该与现有的 Python 库一起工作,这些库对标量类型进行显式类型检查。这是一个难题,因为当 Numpy ndarray 被简化为标量时,它们必须单独更改其类型,并且如果不检查所有访问,就无法知道是否发生了这种情况。实际上,按照标量类型标准,走这条路可能会慢得有点可笑。

Numpy 开发者的解决方案是从 ndarray 和 Python 标量继承它自己的标量类型,这样所有标量也有 .shape、.ndim、.T 等。1x1 矩阵仍然存在,但它的用途将是如果你知道你将处理一个标量,就会气馁。虽然理论上这应该可以正常工作,但偶尔你仍然可以看到他们错过了油漆滚筒的一些地方,丑陋的内脏暴露给所有人看:

>>> from numpy import *
>>> a = array(1)
>>> b = int_(1)
>>> a.ndim
0
>>> b.ndim
0
>>> a[...]
array(1)
>>> a[()]
1
>>> b[...]
array(1)
>>> b[()]
1

真的没有理由为什么 a[...]a[()] 应该返回不同的东西,但确实如此。有一些建议可以改变这一点,但看起来他们忘记完成 1x1 阵列的工作。

一个潜在的更大且可能无法解决的问题是 Numpy 标量是不可变的。因此,将一个标量“喷射”到一个 ndarray 中,在数学上是将一个数组折叠成一个标量的伴随操作,是一个要实现的 PITA。你实际上不能增长一个 Numpy 标量,它不能根据定义被转换成一个 ndarray,即使 newaxis 神秘地对它起作用:
>>> b[0,1,2,3] = 1
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
TypeError: 'numpy.int32' object does not support item assignment
>>> b[newaxis]
array([1])

在 Matlab 中,增加标量的大小是一种完全可以接受的无脑操作。在 Numpy 中,您必须在任何您认为有可能以标量开头并以数组结尾的地方粘贴 a = array(a)。我理解为什么 Numpy 必须以这种方式与 Python 搭配得很好,但这并不能改变许多新切换器对此深感困惑的事实。有些人清楚地记得与这种行为作斗争并最终坚持下来,而其他人则走得太远了,通常会留下一些深深的无形的心理伤痕,经常萦绕在他们最无辜的梦想中。这对所有人来说都是一个糟糕的情况。

关于python - 为什么 Numpy 中的 0d 数组不被视为标量?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/773030/

10-14 17:39