DotNet Core - 加密哈希函数返回不一致的结果

DotNet Core - Cryptography hash functions returning inconsistent results

我的 .Net Core (v2.x) 应用程序中有一个非常简单的函数,用于计算字符串的哈希值。代码如下:

using System.Security.Cryptography;
using System.Text;

public static string CalculateMd5Hash(string input)
{
    using (var md5 = MD5.Create())
    {
        var inputBytes = Encoding.UTF8.GetBytes(input);

        var hashBytes = md5.ComputeHash(inputBytes);

        return BitConverter.ToString(hashBytes).Replace("-", "").ToLower();
    }
}

我还为它编写了一个非常简单的测试,它似乎可以在我的 windows 机器上运行。它与 this online hash calculator:

的预期输出匹配
public void CalculateMd5Hash_CalculatesHashCorrectly()
{
    var hash = HashingUtility.CalculateMd5Hash("CreateMD5Hash_123_!£$%^&*");

    Assert.Equal("9a3e6e29cc3d1eae7d7a0df0a24a1deb", hash);
}

问题是这个测试在我们的 CI 管道中失败了,它在 linux 机器上运行,但我觉得它应该没有任何区别,因为 UTF-8 和十六进制字符串都是平台无关的概念。

Expected: 9a3e6e29cc3d1eae7d7a0df0a24a1deb
Actual:   fb5f4b930ea2b600c6b976b954a56189

任何想法,这是怎么回事?

编辑:我尝试了@DavidG 的建议,但没有任何运气,输出完全相同。这是哈希函数的更新版本:

public static string CalculateMd5Hash(string input)
{
    using (var md5 = MD5.Create())
    {
        var inputBytes = Encoding.UTF8.GetBytes(input);

        var hashBytes = md5.ComputeHash(inputBytes);

        StringBuilder sb = new StringBuilder();
        for (int i = 0; i < hashBytes .Length; i++)
        {
            sb.Append(hashBytes [i].ToString("X2"));
        }
        return sb.ToString().ToLower();
    }
}

正如@JeroenMostert 在评论中建议的那样,non-ascii 字符 £ 似乎在 git clone 之后丢失了,因此这与C# 代码、UTF-8 或哈希函数。

我在这里问了一个单独的问题: