파이썬에서 문자열, 정수 등과 같은 객체의 크기를 얻는 방법을 알고 싶습니다. 관련 질문 : 파이썬 목록 (튜플)에 요소 당 몇 바이트가 있습니까? 값 크기를 지정하는 크기 필드가 포함 된 XML 파일을 사용하고 있습니다. 이 XML을 구문 분석하고 코딩을 수행해야합니다. 특정 필드의 값을 변경하려면 해당 값의 크기 필드를 확인합니다. 여기서 입력하려는 …
다음은 dev C ++ 창에서 컴파일 된 코드입니다. #include <stdio.h> int main() { int x = 5; printf("%d and ", sizeof(x++)); // note 1 printf("%d\n", x); // note 2 return 0; } 노트 1x 을 실행 한 후 6이 될 것으로 예상 됩니다 . 그러나 출력은 다음과 같습니다. 4 and …
먼저 다음은 몇 가지 코드입니다. int main() { int days[] = {1,2,3,4,5}; int *ptr = days; printf("%u\n", sizeof(days)); printf("%u\n", sizeof(ptr)); return 0; } ptr(32 비트 시스템에서 4 바이트 인 크기를 제공하는 대신) 가리키는 배열의 크기를 찾는 방법이 있습니까?
JavaScript 객체가 차지하는 크기를 알고 싶습니다. 다음 기능을 수행하십시오. function Marks(){ this.maxMarks = 100; } function Student(){ this.firstName = "firstName"; this.lastName = "lastName"; this.marks = new Marks(); } 이제 다음을 인스턴스화합니다 student. var stud = new Student(); 내가 같은 일을 할 수 있도록 stud.firstName = "new Firstname"; alert(stud.firstName); stud.marks.maxMarks = …
sizeof삼항 연산자를 사용 하는 연산자 에 대한 작은 코드 조각이 있습니다 . #include <stdio.h> #include <stdbool.h> int main() { bool a = true; printf("%zu\n", sizeof(bool)); // Ok printf("%zu\n", sizeof(a)); // Ok printf("%zu\n", sizeof(a ? true : false)); // Why 4? return 0; } 출력 ( GCC ) : 1 1 …
이 코드는 왜 컴파일됩니까? _Static uint32_t my_arr[2]; _Static_assert(sizeof(my_arr) == 8, ""); _Static_assert(sizeof(my_arr[0]) == 4, ""); _Static_assert(sizeof(my_arr)[0] == 4, ""); 첫 번째 두 가지 주장은 분명히 정확하지만 내 이해는 sizeof()정수 리터럴로 평가해야하며 배열로 취급 할 수 없기 때문에 마지막 줄이 실패 할 것으로 예상했을 것 입니다. 즉, 다음 줄이 실패하는 것과 …
malloc내 코드에서 사용하는 경우 : int *x = malloc(sizeof(int)); 다음에서이 경고를받습니다 gcc. new.c:7: warning: implicit declaration of function ‘malloc’ new.c:7: warning: incompatible implicit declaration of built-in function ‘malloc’
다른 구조체에 종속 된 구조체를 선언하려고합니다. 나는 sizeof안전 / 보행 적 으로 사용하고 싶습니다 . typedef struct _parent { float calc ; char text[255] ; int used ; } parent_t ; 이제 .NET child_t과 같은 크기 의 구조체를 선언하고 싶습니다 parent_t.text. 어떻게 할 수 있습니까? (아래 의사 코드.) typedef struct …
매개 변수로 전송되는 배열의 크기가 main 내에서와 동일하지 않은 이유는 무엇입니까? #include <stdio.h> void PrintSize(int p_someArray[10]); int main () { int myArray[10]; printf("%d\n", sizeof(myArray)); /* As expected, 40 */ PrintSize(myArray);/* Prints 4, not 40 */ } void PrintSize(int p_someArray[10]){ printf("%d\n", sizeof(p_someArray)); }
C ++에서 sizeof('a') == sizeof(char) == 1. 이것은 'a'문자 리터럴이고 sizeof(char) == 1표준에 정의 된대로 직관적으로 이해 됩니다. 그러나 C에서는 sizeof('a') == sizeof(int). 즉, C 문자 리터럴은 실제로 정수인 것처럼 보입니다. 이유를 아는 사람이 있습니까? 이 C 특성에 대한 많은 언급을 찾을 수 있지만 왜 존재하는지에 대한 설명은 없습니다.
우리가 알고 sizeof있는 데이터 타입 표현의 크기를 계산하기 위해 사용 연산자이며, 피연산자 표현하면, 괄호는 생략 될 수있다. int main() { int a; sizeof int; sizeof( int ); sizeof a; sizeof( a ); return 0; } 의 첫 번째 사용법 sizeof은 잘못된 반면 다른 것은 옳습니다. gcc를 사용하여 컴파일하면 다음 오류 …
На этот вопрос есть ответы на 스택 오버플로 на русском : Кто-нибудь встречал в своей практике를 sizeof (문자) = 1!? 기계 (또는 컴파일러)가 sizeof(char) != 1있습니까? 합니까 C99 표준은 말한다 sizeof(char)표준 준수 구현에 정확히 1을해야합니까? 그렇다면 섹션 번호와 인용문을 알려주십시오. 업데이트 : 바이트를 처리 할 수없는 (최소 읽기 4 바이트, …