나는 딥 러닝의 초보자입니다. Intel GPU와 함께 TensorFlow를 사용할 수있는 방법이 있습니까? 그렇다면 올바른 방향으로 알려주십시오. 그렇지 않은 경우 Intel Corporation Xeon E3-1200 v3 / 4 세대 코어 프로세서 통합 그래픽 컨트롤러에 사용할 수있는 프레임 워크 (Keras, Theano 등)가 있으면 알려주십시오.
corr()원본 df 에서 df를 만듭니다 . corr()DF는 70 X 70에서 나와는 히트 맵을 시각화하는 것은 불가능합니다 ... sns.heatmap(df). 를 표시하려고 corr = df.corr()하면 테이블이 화면에 맞지 않으며 모든 상관 관계를 볼 수 있습니다. df크기에 관계없이 전체를 인쇄 하거나 히트 맵의 크기를 제어하는 방법입니까?
Keras의 LSTM (Theano 배경 사용)을 사용하여 Seq2Seq 모델 을 작업 중이며 몇 MB의 데이터조차도 훈련에 몇 시간이 필요하기 때문에 프로세스를 병렬화하고 싶습니다. GPU가 CPU보다 병렬 처리에서 훨씬 더 낫다는 것은 분명합니다. 현재는 CPU 만 사용할 수 있습니다. 16 개의 CPU에 액세스 할 수 있습니다 (코어 당 2 개의 스레드 X …