如何将 char 转换为 libc::c_char?

How to convert a char to a libc::c_char?

我有一个 C 函数:

Node * first_element_by_path(const Node * node, const char * path, char delimiter);

还有一个 Rust 胶水函数:

pub fn first_element_by_path(node: *mut CNode, path: *const c_char, delimiter: c_char) -> *mut CNode;

它需要一个 c_char 作为分隔符。我想向它发送 char,但 c_chari8 而不是 char。在这种情况下,如何将 Rust char 转换为 i8c_char

你问的问题:

How do I fit a 32-bit number into an 8-bit value?

其中有直接答案:"throw away most of the bits":

let c = rust_character as libc::c_char;

但是,这应该会让您停下来问问题:

  • 其余位的编码是否正确?
  • 那些我扔掉的碎片呢?

Rust chars 允许对所有 Unicode 标量值进行编码。此代码期望的行为是什么:

let c = '' as libc::c_char;

应该不是创造价值-87,一个non-ASCII价值!或者这个 less-silly 也许更现实的变体,即 -17:

let c = 'ï' as libc::c_char;

那你就要问了:C代码中的一个字符是什么意思? C代码认为字符串是什么编码? C 代码如何处理 non-ASCII 文本?

最安全的做法可能是断言该值在 ASCII 范围内:

let c = 'ï';
let v = c as u32;
assert!(v <= 127, "Invalid C character value");
let v = v as libc::c_char;

除了断言,您还可以 return 一个 Result 类型来指示值超出范围。

should I change my function (the one that will call the glue function) to receive a c_char instead of a char?

这取决于。那可能只是将问题推得更远;现在 每个 调用者必须决定如何创建 c_char 并担心 128 到 255 之间的值。如果您的代码的语义是这样的值必须是ASCII 字符,然后在您的类型中对其进行编码。具体来说,您可以使用 ascii crate 之类的东西。

在任何一种情况下,您都将失败的可能性推入了其他人的代码中,这让您的生活更轻松,但可能会让调用者更加沮丧。