Подтвердить что ты не робот

Facebook JSON плохо закодирован

Я загрузил данные Facebook-мессенджера (в вашей учетной записи Facebook, перейдите к настройкам, затем в свою информацию в Facebook), затем загрузите свою информацию, затем создайте файл, по крайней мере, в поле "Сообщения"), чтобы сделать отличную статистику

Однако есть небольшая проблема с кодировкой. Я не уверен, но похоже, что Facebook использовал плохую кодировку для этих данных. Когда я открываю его с помощью текстового редактора, я вижу что-то вроде этого: Rados\u00c5\u0082aw. Когда я пытаюсь открыть его с помощью python (UTF-8), я получаю RadosÅ\x82aw. Однако я должен получить: Radosław.

Мой скрипт python:

text = open(os.path.join(subdir, file), encoding='utf-8')
conversations.append(json.load(text))

Я пробовал несколько наиболее распространенных кодировок. Примеры данных:

{
  "sender_name": "Rados\u00c5\u0082aw",
  "timestamp": 1524558089,
  "content": "No to trzeba ostatnie treningi zrobi\u00c4\u0087 xD",
  "type": "Generic"
}
4b9b3361

Ответ 1

Я действительно могу подтвердить, что данные загрузки Facebook неправильно закодированы; Mojibake. Исходные данные кодируются UTF-8, но вместо этого декодируются как латинские -1. Обязательно зарегистрируйте отчет об ошибке.

Тем временем вы можете восстановить повреждение двумя способами:

  1. Декодируйте данные как JSON, затем перекодируйте любые строки как латинские -1, снова декодируйте как UTF-8:

    >>> import json
    >>> data = r'"Rados\u00c5\u0082aw"'
    >>> json.loads(data).encode('latin1').decode('utf8')
    'Radosław'
    
  2. Загрузите данные как двоичные, замените все последовательности \u00hh байтом, которые представляют две последние шестнадцатеричные цифры, декодируются как UTF-8, а затем декодируются как JSON:

    import re
    from functools import partial
    
    fix_mojibake_escapes = partial(
         re.compile(rb'\\u00([\da-f]{2})').sub,
         lambda m: bytes.fromhex(m.group(1).decode()))
    
    with open(os.path.join(subdir, file), 'rb') as binary_data:
        repaired = fix_mojibake_escapes(binary_data.read())
    data = json.loads(repaired.decode('utf8'))
    

    Из ваших выборочных данных получается:

    {'content': 'No to trzeba ostatnie treningi zrobić xD',
     'sender_name': 'Radosław',
     'timestamp': 1524558089,
     'type': 'Generic'}
    

Ответ 2

Мое решение для анализа объектов использует parse_hook обратного вызова parse_hook для функции load/load:

import json


def parse_obj(dct):
    for key in dct:
        dct[key] = dct[key].encode('latin_1').decode('utf-8')
        pass
    return dct


data = '{"msg": "Ahoj sv\u00c4\u009bte"}'

# String
json.loads(data)  
# Out: {'msg': 'Ahoj svÄ\x9bte'}
json.loads(data, object_hook=parse_obj)  
# Out: {'msg': 'Ahoj světe'}

# File
with open('/path/to/file.json') as f:
     json.load(f, object_hook=parse_obj)
     # Out: {'msg': 'Ahoj světe'}
     pass

Обновить:

Решение для разбора списка со строками не работает. Итак, вот обновленное решение:

import json


def parse_obj(obj):
    for key in obj:
        if isinstance(obj[key], str):
            obj[key] = obj[key].encode('latin_1').decode('utf-8')
        elif isinstance(obj[key], list):
            obj[key] = list(map(lambda x: x if type(x) != str else x.encode('latin_1').decode('utf-8'), obj[key]))
        pass
    return obj

Ответ 3

Основываясь на решении @Martijn Pieters, я написал нечто похожее на Java.

public String getMessengerJson(Path path) throws IOException {
    String badlyEncoded = Files.readString(path, StandardCharsets.UTF_8);
    String unescaped = unescapeMessenger(badlyEncoded);
    byte[] bytes = unescaped.getBytes(StandardCharsets.ISO_8859_1);
    String fixed = new String(bytes, StandardCharsets.UTF_8);
    return fixed;
}

Метод unescape основан на org.apache.commons.lang.StringEscapeUtils.

private String unescapeMessenger(String str) {
    if (str == null) {
        return null;
    }
    try {
        StringWriter writer = new StringWriter(str.length());
        unescapeMessenger(writer, str);
        return writer.toString();
    } catch (IOException ioe) {
        // this should never ever happen while writing to a StringWriter
        throw new UnhandledException(ioe);
    }
}

private void unescapeMessenger(Writer out, String str) throws IOException {
    if (out == null) {
        throw new IllegalArgumentException("The Writer must not be null");
    }
    if (str == null) {
        return;
    }
    int sz = str.length();
    StrBuilder unicode = new StrBuilder(4);
    boolean hadSlash = false;
    boolean inUnicode = false;
    for (int i = 0; i < sz; i++) {
        char ch = str.charAt(i);
        if (inUnicode) {
            unicode.append(ch);
            if (unicode.length() == 4) {
                // unicode now contains the four hex digits
                // which represents our unicode character
                try {
                    int value = Integer.parseInt(unicode.toString(), 16);
                    out.write((char) value);
                    unicode.setLength(0);
                    inUnicode = false;
                    hadSlash = false;
                } catch (NumberFormatException nfe) {
                    throw new NestableRuntimeException("Unable to parse unicode value: " + unicode, nfe);
                }
            }
            continue;
        }
        if (hadSlash) {
            hadSlash = false;
            if (ch == 'u') {
                inUnicode = true;
            } else {
                out.write("\\");
                out.write(ch);
            }
            continue;
        } else if (ch == '\\') {
            hadSlash = true;
            continue;
        }
        out.write(ch);
    }
    if (hadSlash) {
        // then we're in the weird case of a \ at the end of the
        // string, let output it anyway.
        out.write('\\');
    }
}

Ответ 4

Есть идеи, как сделать то же самое с JS (особенно с NodeJ)?

Я попытался следовать вашему скрипту Python, используя iconv-lite для кодирования и декодирования, но безуспешно:

     iconv.decode(iconv.encode(str, 'latin1'), 'utf8');

Спасибо !