C #에서 문자열 인코딩 결정


127

C #에서 문자열 인코딩을 결정하는 방법이 있습니까?

예를 들어 파일 이름 문자열이 있지만 유니 코드 UTF-16 또는 시스템 기본 인코딩으로 인코딩되어 있는지 알 수없는 경우 어떻게 알 수 있습니까?


유니 코드로 "인코딩"할 수 없습니다. 그리고 자동적으로의 인코딩 확인할 방법이 없다 어떤 다른 사전 정보없이, 주어진 문자열.
Nicolas Dumazet

5
어쩌면 명확하게하기 : 당신이 인코딩 (UTF-에 "인코딩"방식을 사용하여 문자 집합의 바이트 문자열로 유니 코드 코드 포인트를 , 이소 ... 등, BIG5,가 Shift-JIS), 및 디코딩 A로부터 바이트 문자열을 문자를 유니 코드로 설정합니다. 바이트 열은 유니 코드로 인코딩하지 않습니다. 바이트 문자열로 유니 코드를 디코딩하지 않습니다.
Nicolas Dumazet

13
@NicDunZ-인코딩 자체 (특히 UTF-16)는 일반적으로 "유니 코드"라고합니다. 옳고 그름, 그것이 생명입니다. .NET에서도 UTF-16을 의미하는 Encoding.Unicode를보십시오.
Marc Gravell

2
잘, 나는 .NET이 그렇게 오도하는 것을 몰랐다. 그것은 배우는 끔찍한 습관처럼 보입니다. 그리고 미안 @krebstar는 내 의도되지 않았 음 (난 아직도 당신의 편집 문제는 이전보다 훨씬 더 많은 의미가 있다고 생각)
니콜라스 Dumazet에게

1
@Nicdumz # 1 : 어떤 인코딩을 사용할 것인지를 확률 적으로 결정하는 방법이 있습니다. IE가 무엇을하는지 (그리고 지금은 FF-View-Character Encoding-Auto-detect와 함께) FF는 하나의 인코딩을 시도하고 "잘 작성된 <여기에 언어 이름을 입력하십시오>"인지 변경하거나 다시 시도하는지 확인하십시오 . 어서, 이것은 재미있을 수 있습니다!
SnippyHolloW

답변:


31

Utf8Checker는 순수한 관리 코드 에서이 작업을 수행하는 간단한 클래스입니다. http://utf8checker.codeplex.com

주의 사항 : 이미 지적했듯이 "인코딩 결정"은 바이트 스트림에만 의미가 있습니다. 문자열이 있으면 문자열을 먼저 인식하기 위해 인코딩을 이미 알고 있거나 추측 한 방식으로 누군가가 이미 인코딩 한 것입니다.


문자열이 단순히 8 비트 인코딩으로 수행 된 잘못된 디코딩이고이를 인코딩하는 데 인코딩이 사용 된 경우 일반적으로 손상없이 바이트를 다시 가져올 수 있습니다 .
Nyerguds

57

아래 코드에는 다음과 같은 기능이 있습니다.

  1. UTF-7, UTF-8 / 16 / 32 감지 또는 감지 시도 (bom, no bom, little & big endian)
  2. 유니 코드 인코딩이 없으면 로컬 기본 코드 페이지로 폴백합니다.
  3. BOM / 서명이없는 유니 코드 파일을 탐지합니다 (확률이 높은).
  4. 인코딩을 결정하는 데 도움이되도록 파일 내에서 charset = xyz 및 encoding = xyz를 검색합니다.
  5. 처리를 저장하기 위해 파일을 정의 할 수 있습니다 (정의 가능한 바이트 수).
  6. 인코딩 및 디코딩 된 텍스트 파일이 반환됩니다.
  7. 효율성을위한 순수한 바이트 기반 솔루션

다른 사람들이 말했듯이 완벽한 솔루션은 없으며 (전세계에서 사용되는 다양한 8 비트 확장 ASCII 인코딩을 쉽게 구별 할 수는 없지만) 개발자가 사용자에게 제시하면 특히 충분할 수 있습니다. 여기에 표시된 대체 인코딩 목록 : 각 언어의 가장 일반적인 인코딩은 무엇입니까?

인코딩의 전체 목록은 다음을 사용하여 찾을 수 있습니다. Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: /programming/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}

(메일의 문자 세트 헤더에서) 키릴 문자에 대한이 작품 (그리고 아마도 다른 모든)이 .eml 파일
NIME 클라우드

실제로 UTF-7은 순진하게 디코딩 될 수 없습니다. 전체 프리앰블은 더 길며 첫 번째 문자의 두 비트를 포함합니다. .Net 시스템은 UTF7의 프리앰블 시스템을 전혀 지원하지 않는 것 같습니다.
Nyerguds

내가 확인한 다른 방법으로도 도움이되지 않을 때 나를 위해 일했습니다! 고마워 댄
Tejasvi Hegde

솔루션 주셔서 감사합니다. 완전히 다른 소스의 파일에서 인코딩을 결정하는 데 사용하고 있습니다. 내가 찾은 것은 너무 낮은 맛보기 값을 사용하면 결과가 잘못 될 수 있다는 것입니다. (예를 들어, b.Length / 10을 내 맛보기로 사용하더라도 코드에서 UTF8 파일에 대해 Encoding.Default를 반환했습니다.) 그래서 궁금합니다. 전체 파일을 스캔 한 경우에만 Encoding.Default를 사용할 수 있다고 결론 내릴 수 있습니다.
Sean

@Sean : 속도가 정확성보다 중요한 경우, 특히 수십 또는 수백 메가 바이트 크기의 파일에 적합합니다. 내 경험에 따르면, 맛이 낮은 값이라도 ~ 99.9 %의 정확한 결과를 얻을 수 있습니다. 경험이 다를 수 있습니다.
Dan W

33

문자열이 어디에서 왔는지에 달려 있습니다. .NET 문자열은 유니 코드 (UTF-16)입니다. 예를 들어 데이터베이스의 데이터를 바이트 배열로 읽는 경우 다른 방법이 될 수 있습니다.

이 CodeProject 기사가 관심을 가질 수 있습니다 . 들어오고 나가는 텍스트의 인코딩 감지

C # 및 .NET 의 Jon Skeet의 문자열 은 .NET 문자열에 대한 훌륭한 설명입니다.


비 유니 코드 C ++ 앱에서 온 것입니다. CodeProject 기사가 너무 복잡해 보이지만 원하는 작업을 수행하는 것 같습니다.
krebstar

18

나는 이것이 조금 늦었다는 것을 알고 있습니다.

문자열에는 실제로 인코딩이 없습니다. .NET에서 문자열은 char 객체의 모음입니다. 기본적으로 문자열 인 경우 이미 디코딩되었습니다.

그러나 바이트로 구성된 파일의 내용을 읽고이를 문자열로 변환하려면 파일의 인코딩을 사용해야합니다.

.NET에는 ASCII, UTF7, UTF8, UTF32 등을위한 인코딩 및 디코딩 클래스가 포함되어 있습니다.

이러한 대부분의 인코딩에는 사용 된 인코딩 유형을 구별하는 데 사용할 수있는 특정 바이트 순서 표시가 있습니다.

.NET 클래스 System.IO.StreamReader는 바이트 순서 표시를 읽어 스트림 내에서 사용되는 인코딩을 결정할 수 있습니다.

예를 들면 다음과 같습니다.

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }

3
BOM이 없으면 UTF 16을 감지하는 데는 작동하지 않습니다. 유니 코드 인코딩을 감지하지 못하면 사용자의 로컬 기본 코드 페이지로 돌아 가지 않습니다. Encoding.DefaultStreamReader 매개 변수로 추가하여 후자를 수정할 수 있지만 코드가 없으면 BOM이없는 UTF8을 감지하지 못합니다.
Dan W

1
@ DanW : BOM이없는 UTF-16은 실제로 완료 되었습니까? 나는 그것을 사용하지 않을 것이다. 거의 모든 것을 열어 놓는 것은 재앙 일 것입니다.
Nyerguds

11

늦게 늦어지는 또 다른 옵션은 죄송합니다.

http://www.architectshack.com/TextFileEncodingDetector.ashx

이 작은 C # 전용 클래스는 존재하는 경우 BOMS를 사용하고, 그렇지 않으면 가능한 유니 코드 인코딩을 자동 감지하려고 시도하며, 유니 코드 인코딩이 가능하지 않거나 가능성이없는 경우 대체됩니다.

위에서 언급 한 UTF8Checker가 비슷한 것을하는 것처럼 들리지만 범위가 약간 넓다고 생각합니다 .UTF8 대신 BOM이 누락 될 수있는 다른 가능한 유니 코드 인코딩 (UTF-16 LE 또는 BE)도 확인합니다.

이것이 누군가를 돕기를 바랍니다!


꽤 좋은 코드, 그것은 인코딩 감지의 내 문제를 해결 :)
CARLOS LOTH

9

SimpleHelpers.FileEncoding Nuget 패키지는 랩 모질라 범용 캐릭터 세트 감지기의 C #을 포트 죽은 - 간단한 API로를 :

var encoding = FileEncoding.DetectFileEncoding(txtFile);

다른 사람들이 일을 할 수 있도록 : 이것은 매우 간단한 솔루션을 제공, 최대 높아야한다 D를
buddybubble

이 도서관은 GPL입니다
br br

그렇습니까? MIT 라이센스를보고 MPL 인 3 중 라이센스 구성 요소 (UDE)를 사용합니다. UDE가 독점 제품에 문제가 있는지 확인하려고 노력했기 때문에 더 많은 정보가 있으면 대단히 감사하겠습니다.
사이먼 우즈

5

내 해결책은 몇 가지 대체 기능이있는 내장 기능을 사용하는 것입니다.

stackoverflow에 대한 다른 유사한 질문에 대한 답변에서 전략을 선택했지만 지금 찾을 수 없습니다.

StreamReader의 내장 로직을 사용하여 BOM을 먼저 확인합니다. BOM이 있으면 인코딩이 아닌 다른 인코딩이되므로 Encoding.Default그 결과를 신뢰해야합니다.

그렇지 않은 경우 바이트 시퀀스가 ​​유효한 UTF-8 시퀀스인지 확인합니다. 그렇다면 UTF-8을 인코딩으로 추측하고 그렇지 않으면 기본 ASCII 인코딩이 결과가됩니다.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}

3

참고 : 이것은 UTF-8 인코딩이 내부적으로 어떻게 작동했는지 확인하기위한 실험이었습니다. vilicvane이 제공하는 솔루션은UTF8Encoding 디코딩 실패에 대한 예외를 발생시키기 위해 초기화 된 객체 를 사용하는 것이 훨씬 간단하며 기본적으로 동일한 기능을 수행합니다.


UTF-8과 Windows-1252를 구별하기 위해이 코드를 작성했습니다. 그러나 전체 텍스트를 메모리에로드하고 완전히 스캔하기 때문에 거대한 텍스트 파일에는 사용해서는 안됩니다. .srt 자막 파일에 사용했는데로드 된 인코딩으로 파일을 다시 저장할 수있었습니다.

ref로 함수에 제공된 인코딩은 파일이 유효한 UTF-8이 아닌 것으로 감지 된 경우 사용할 8 비트 폴백 인코딩이어야합니다. 일반적으로 Windows 시스템에서는 Windows-1252가됩니다. 이것은 실제 유효한 ASCII 범위를 확인하는 것과 같은 멋진 일을하지 않으며 바이트 순서 표시에서도 UTF-16을 감지하지 못합니다.

비트 단위 탐지의 이론은 여기에서 찾을 수 있습니다 : https://ianthehenry.com/2015/1/17/decoding-utf-8/

기본적으로 첫 번째 바이트의 비트 범위는 UTF-8 엔티티의 일부 이후의 수를 결정합니다. 그 이후의 바이트는 항상 같은 비트 범위에 있습니다.

/// <summary>
/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii.
/// If not, decodes the text using the given fallback encoding.
/// Bit-wise mechanism for detecting valid UTF-8 based on
/// https://ianthehenry.com/2015/1/17/decoding-utf-8/
/// </summary>
/// <param name="docBytes">The bytes read from the file.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>
/// <returns>The contents of the read file, as String.</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    Int32 len = docBytes.Length;
    // byte order mark for utf-8. Easiest way of detecting encoding.
    if (len > 3 && docBytes[0] == 0xEF && docBytes[1] == 0xBB && docBytes[2] == 0xBF)
    {
        encoding = new UTF8Encoding(true);
        // Note that even when initialising an encoding to have
        // a BOM, it does not cut it off the front of the input.
        return encoding.GetString(docBytes, 3, len - 3);
    }
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < len; ++i)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip == 0)
            continue;
        if (isPureAscii)
            isPureAscii = false;
        if (skip < 0)
        {
            isUtf8Valid = false;
            // if invalid utf8 is detected, there's no sense in going on.
            break;
        }
        i += skip;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given encoding. This should be an 8-bit encoding like Windows-1252.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and
/// returns the amount of bytes to skip ahead to do the next read if it is.
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    // 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,
    // but in reality it only goes up to 3, meaning the full amount is 4.
    const Int32 maxUtf8Length = 4;
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    Int32 len = binFile.Length;
    for (Int32 addedlength = 1; addedlength < maxUtf8Length; ++addedlength)
    {
        Int32 fullmask = 0x80;
        Int32 testmask = 0;
        // This code adds shifted bits to get the desired full mask.
        // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
        // effectively always the previous step in the iteration I just store it each time.
        for (Int32 i = 0; i <= addedlength; ++i)
        {
            testmask = fullmask;
            fullmask += (0x80 >> (i+1));
        }
        // figure out bit masks from level
        if ((current & fullmask) == testmask)
        {
            if (offset + addedlength >= len)
                return -1;
            // Lookahead. Pattern of any following bytes is always 10xxxxxx
            for (Int32 i = 1; i <= addedlength; ++i)
            {
                if ((binFile[offset + i] & 0xC0) != 0x80)
                    return -1;
            }
            return addedlength;
        }
    }
    // Value is greater than the maximum allowed for utf8. Deemed invalid.
    return -1;
}

또한 else이후에 마지막 진술 은 없습니다 if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. 나는 그 else경우가 유효하지 않다고 생각합니다 utf8 : isUtf8Valid = false;. 당신은?
복도

@hal Ah, true ... 이후 3까지 올라가는 루프를 사용하지만 기술적으로 더 루프로 변경할 수있는 더 일반적인 (고급) 시스템으로 내 코드를 업데이트했습니다 (사양은 약간 불분명합니다) ; UTF-8을 최대 6 개의 추가 바이트로 확장 할 수는 있지만 현재 구현에서는 3 개만 사용 되므로이 코드를 업데이트하지 않았습니다.
Nyerguds

@hal 새로운 솔루션으로 업데이트했습니다. 원리는 동일하게 유지되지만 비트 마스크는 코드로 명시 적으로 작성되지 않고 루프에서 작성 및 검사됩니다.
Nyerguds

1

GitHub에서 새로운 라이브러리를 찾았습니다 : CharsetDetector / UTF-unknown

C #에서 문자 세트 구축-.NET Core 2-3, .NET 표준 1-2 및 .NET 4+

또한 다른 리포지토리를 기반으로 하는 Mozilla Universal Charset Detector 의 포트이기도 합니다.

CharsetDetector / UTF-unknown 에는 이름이라는 클래스가 CharsetDetector있습니다.

CharsetDetector 정적 인코딩 검색 방법이 포함되어 있습니다.

  • CharsetDetector.DetectFromFile()
  • CharsetDetector.DetectFromStream()
  • CharsetDetector.DetectFromBytes()

감지 된 결과는 클래스 DetectionResult에 속성 DetectedDetectionDetail있으며 아래 속성을 가진 클래스의 인스턴스입니다 .

  • EncodingName
  • Encoding
  • Confidence

아래는 사용법을 보여주는 예입니다.

// Program.cs
using System;
using System.Text;
using UtfUnknown;

namespace ConsoleExample
{
    public class Program
    {
        public static void Main(string[] args)
        {
            string filename = @"E:\new-file.txt";
            DetectDemo(filename);
        }

        /// <summary>
        /// Command line example: detect the encoding of the given file.
        /// </summary>
        /// <param name="filename">a filename</param>
        public static void DetectDemo(string filename)
        {
            // Detect from File
            DetectionResult result = CharsetDetector.DetectFromFile(filename);
            // Get the best Detection
            DetectionDetail resultDetected = result.Detected;

            // detected result may be null.
            if (resultDetected != null)
            {
                // Get the alias of the found encoding
                string encodingName = resultDetected.EncodingName;
                // Get the System.Text.Encoding of the found encoding (can be null if not available)
                Encoding encoding = resultDetected.Encoding;
                // Get the confidence of the found encoding (between 0 and 1)
                float confidence = resultDetected.Confidence;

                if (encoding != null)
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");
                }
                else
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");
                }
            }
            else
            {
                Console.WriteLine($"Detection failed: {filename}");
            }
        }
    }
}

결과 스크린 샷 예 : 여기에 이미지 설명을 입력하십시오

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.