답변:
단순히 파이프를 keys
작동시킵니다 :
샘플 input.json
:
{
"connections": {
"host1": { "ip": "10.1.2.3" },
"host2": { "ip": "10.1.2.2" },
"host3": { "ip": "10.1.18.1" }
}
}
jq -r '.connections | keys[] as $k | "\($k), \(.[$k] | .ip)"' input.json
출력 :
host1, 10.1.2.3
host2, 10.1.2.2
host3, 10.1.18.1
keys
키 이름이 정렬 된 순서대로 생성됩니다. 원래 순서대로 원하는 경우keys_unsorted
"를 사용하십시오 . 그래서 OP는 그것을 알고 keys
의식적으로 선택했습니다 .
vars를 내보내는보다 일반적인 bash 함수 (보간 포함) :
#
#------------------------------------------------------------------------------
# usage example:
# doExportJsonSectionVars cnf/env/dev.env.json '.env.virtual.docker.spark_base'
#------------------------------------------------------------------------------
doExportJsonSectionVars(){
json_file="$1"
shift 1;
test -f "$json_file" || echo "the json_file: $json_file does not exist !!! Nothing to do" && exit 1
section="$1"
test -z "$section" && echo "the section in doExportJsonSectionVars is empty !!! nothing to do !!!" && exit 1
shift 1;
while read -r l ; do
eval $l ;
done < <(cat "$json_file"| jq -r "$section"'|keys_unsorted[] as $key|"export \($key)=\(.[$key])"')
}
예제 데이터
cat cnf/env/dev.env.json
{
"env": {
"ENV_TYPE": "dev",
"physical": {
"var_name": "var_value"
},
"virtual": {
"docker": {
"spark_base": {
"SPARK_HOME": "/opt/spark"
, "SPARK_CONF": "$SPARK_HOME/conf"
}
, "spark_master": {
"var_name": "var_value"
}
, "spark_worker": {
"var_name": "var_value"
}
}
, "var_name": "var_value"
}
}
}
keys
키를 정렬하므로keys_unsorted
그렇지 않은 것을 지적 할 가치가 있습니다.