Django 다중 처리 및 데이터베이스 연결


85

배경:

Postgres 데이터베이스와 함께 Django를 사용하는 프로젝트를 진행 중입니다. 내 웹 검색 중 일부가 언급했기 때문에 중요한 경우 mod_wsgi를 사용하고 있습니다. 웹 양식 제출에서 Django 뷰는 상당한 시간 (사용자가 기다리는 것보다 더 많은 시간)이 걸리는 작업을 시작하므로 백그라운드에서 시스템 호출을 통해 작업을 시작합니다. 현재 실행중인 작업은 데이터베이스를 읽고 쓸 수 있어야합니다. 이 작업은 너무 오래 걸리기 때문에 다중 처리를 사용하여 일부를 병렬로 실행합니다.

문제:

최상위 스크립트에는 데이터베이스 연결이 있으며 자식 프로세스를 생성 할 때 부모의 연결을 자식이 사용할 수있는 것처럼 보입니다. 그런 다음 쿼리 전에 SET TRANSACTION ISOLATION LEVEL을 호출해야하는 방법에 대한 예외가 있습니다. 연구에 따르면 이는 여러 프로세스에서 동일한 데이터베이스 연결을 사용하려고하기 때문입니다. 내가 찾은 한 스레드는 자식 프로세스의 시작 부분에서 connection.close ()를 호출하여 Django가 필요할 때 자동으로 새 연결을 생성하므로 각 자식 프로세스가 고유 한 연결을 갖도록 제안했습니다. 즉, 공유되지 않습니다. 자식 프로세스에서 connection.close ()를 호출하면 부모 프로세스가 연결이 끊어 졌다고 불평했기 때문에 이것은 작동하지 않았습니다.

기타 조사 결과 :

내가 읽은 일부 내용은 실제로 이것을 할 수 없으며 다중 처리, mod_wsgi 및 Django가 함께 잘 작동하지 않는다는 것을 나타내는 것 같습니다. 믿을 수없는 것 같아요.

일부는 장기적인 해결책이 될 수있는 셀러리 사용을 제안했지만 현재로서는 셀러리를 설치할 수 없으며 일부 승인 절차를 보류 중이 어서 지금은 옵션이 아닙니다.

SO 및 다른 곳에서 영구 데이터베이스 연결에 대한 여러 참조를 찾았는데, 이는 다른 문제라고 생각합니다.

또한 psycopg2.pool 및 pgpool에 대한 참조와 bouncer에 대한 내용을 찾았습니다. 사실, 나는 그 책들에서 내가 읽고있는 내용의 대부분을 이해하지 못했지만, 확실히 내가 찾고있는 것으로 튀어 나오지는 않았습니다.

현재 "해결 방법":

지금은 직렬로 실행하는 것으로 되 돌렸고 작동하지만 원하는 것보다 느립니다.

다중 처리를 사용하여 병렬로 실행하는 방법에 대한 제안 사항이 있습니까? 내가 부모를 가질 수 있고 두 자녀가 모두 데이터베이스에 독립적으로 연결되어 있다면 모든 것이 괜찮을 것 같지만 그 행동을 얻을 수없는 것 같습니다.

감사합니다. 길이 죄송합니다!

답변:


71

다중 처리는 프로세스를 분기하기 때문에 프로세스간에 연결 개체를 복사하므로 부모 프로세스의 모든 파일 설명자를 복사합니다. 즉, SQL 서버에 대한 연결은 파일 일 뿐이며 Linux에서 / proc // fd / .... 아래에서 볼 수 있습니다. 열려있는 모든 파일은 분기 된 프로세스간에 공유됩니다. 여기에서 포크에 대해 자세히 알아볼 수 있습니다 .

내 솔루션은 프로세스를 시작하기 직전에 db 연결을 닫는 것이 었습니다. 각 프로세스는 필요할 때 연결 자체를 다시 만듭니다 (django 1.4에서 테스트 됨).

from django import db
db.connections.close_all()
def db_worker():      
    some_paralell_code()
Process(target = db_worker,args = ())

Pgbouncer / pgpool은 다중 처리의 의미에서 스레드와 연결되지 않습니다. 각 요청에 대해 연결을 닫지 않는 대신 높은 부하를받는 동안 postgres에 연결하는 속도를 높이는 것입니다.

최신 정보:

데이터베이스 연결 문제를 완전히 제거하려면 데이터베이스와 연결된 모든 논리를 db_worker로 이동하기 만하면됩니다.-QueryDict를 인수로 전달하고 싶었습니다 ... 더 나은 아이디어는 단순히 ID 목록을 전달하는 것입니다 ... QueryDict 및 values_list ( 'id', flat = 사실), 목록으로 바꾸는 것을 잊지 마십시오! db_worker로 전달하기 전에 list (QueryDict). 덕분에 모델 데이터베이스 연결을 복사하지 않습니다.

def db_worker(models_ids):        
    obj = PartModelWorkerClass(model_ids) # here You do Model.objects.filter(id__in = model_ids)
    obj.run()


model_ids = Model.objects.all().values_list('id', flat=True)
model_ids = list(model_ids) # cast to list
process_count = 5
delta = (len(model_ids) / process_count) + 1

# do all the db stuff here ...

# here you can close db connection
from django import db
db.connections.close_all()

for it in range(0:process_count):
    Process(target = db_worker,args = (model_ids[it*delta:(it+1)*delta]))   

쿼리 세트에서 자체 답변 질문으로 ID를 전달하는 것에 대해 설명해 주시겠습니까?
Jharwood

1
다중 처리는 프로세스를 분기하기 때문에 프로세스간에 연결 개체를 복사하므로 상위 프로세스의 모든 파일 설명자를 복사합니다. 즉, mysql 서버에 대한 연결은 파일 일 뿐이며 Linux에서 / proc / <PID> / fd / .... 아래에있는 파일을 볼 수 있습니다. 열려있는 모든 파일은 분기 된 프로세스 AFAIK간에 공유됩니다. stackoverflow.com/questions/4277289/…
vlad-ardelean

1
스레드에도 적용됩니까? 예 : 주 스레드에서 db conn을 닫은 다음 각 스레드에서 db에 액세스하면 각 스레드가 자체 연결을 얻습니까?
제임스 린

1
django.db.connections.close_all()한 번의 통화로 모든 연결을 닫으 려면 을 사용해야 합니다.
Denis Malinovsky

1
흠 ... 여기 django의 사람들 사이에서 흥미로운 이야기가 있습니다. code.djangoproject.com/ticket/20562 아마도이 주제에 대해 약간의 빛을 발할 수 있을까요? 기본적으로 연결은 '분기 할 수 없습니다'... 각 프로세스에는 자체 연결이 있어야합니다.
lechup

18

여러 데이터베이스를 사용하는 경우 모든 연결을 닫아야합니다.

from django import db
for connection_name in db.connections.databases:
    db.connections[connection_name].close()

편집하다

모든 연결을 닫으려면 언급 된 @lechup과 동일하게 사용하십시오 (이 메서드가 추가 된 장고 버전 이후 확실하지 않음).

from django import db
db.connections.close_all()

9
이것은 db.close_connection을 여러 번 호출하는 것입니다
ibz

2
어디에서나 별칭이나 정보를 사용하지 않고 어떻게 작동하는지 알 수 없습니다.
RemcoGerlich

이건 ... 작동하지 않습니다. @Mounir, 당신은 그것을 사용하는 수정해야 alias하거나 infofor경우, 루프 본문 db또는 close_connection()그 지원합니다.
0atman

5

Python 3 및 Django 1.9의 경우 이것이 저에게 효과적이었습니다.

import multiprocessing
import django
django.setup() # Must call setup

def db_worker():
    for name, info in django.db.connections.databases.items(): # Close the DB connections
        django.db.connection.close()
    # Execute parallel code here

if __name__ == '__main__':
    multiprocessing.Process(target=db_worker)

django.setup () 없이는이 작업을 수행 할 수 없습니다. 다중 처리를 위해 무언가를 다시 초기화해야한다고 생각합니다.


감사! 이것은 나를 위해 일했으며 아마도 최신 버전의 django에 대한 대답이 될 것입니다.
krischan

장고 방식은 독립형 래퍼 스크립트를 생성하지 않고 관리 명령을 생성하는 것입니다. 관리 명령을 사용하지 않는 경우 setup장고 를 사용해야 합니다.
lechup

2
for 루프는 실제로 아무것도하지 않고 db.connections.databases.items()연결을 여러 번 닫는 것입니다. db.connections.close_all()작업자 함수라고하는 한 잘 작동합니다.
tao_oat

2

Django 테스트 케이스를 실행할 때 "연결 끊김"문제가 발생했습니다. 순차적으로 . 테스트 외에도 테스트 실행 중에 데이터베이스를 의도적으로 수정하는 또 다른 프로세스가 있습니다. 이 프로세스는 각 테스트 케이스 setUp ()에서 시작됩니다.

간단한 수정에서 내 테스트 클래스를 상속하는 것이 었습니다 TransactionTestCase대신 TestCase. 이렇게하면 데이터베이스가 실제로 기록되고 다른 프로세스가 데이터에 대한 최신보기를 갖게됩니다.


1

(훌륭한 솔루션은 아니지만 가능한 해결 방법)

셀러리를 사용할 수 없다면, 기본적으로 작업 테이블에 작업을 추가하고 작업을 선택하고 처리하는 일반 크론을 사용하여 자체 대기열 시스템을 구현할 수 있습니까? (관리 명령을 통해)


아마도-그 수준의 복잡성을 피하고 싶었지만 유일한 해결책이라면 그 길로 가야 할 수도 있습니다-제안에 감사드립니다. 셀러리가 가장 좋은 대답인가요? 그렇다면 밀어 붙일 수는 있겠지만 시간이 좀 걸릴 것입니다. 저는 셀러리를 하나의 컴퓨터에서 병렬 처리하는 것과는 반대로 분산 처리와 연관시킵니다.하지만 아마도 그것은 제가 경험이 부족한 것일 수도 있습니다.
daroo

2
셀러리는 요청-응답주기 외에 필요한 모든 처리에 적합합니다
두 번째

1

이 문제가 발생하여 다음을 수행하여 해결할 수있었습니다 (제한된 작업 시스템을 구현 중입니다).

task.py

from django.db import connection

def as_task(fn):
    """  this is a decorator that handles task duties, like setting up loggers, reporting on status...etc """ 
    connection.close()  #  this is where i kill the database connection VERY IMPORTANT
    # This will force django to open a new unique connection, since on linux at least
    # Connections do not fare well when forked 
    #...etc

ScheduledJob.py

from django.db import connection

def run_task(request, job_id):
    """ Just a simple view that when hit with a specific job id kicks of said job """ 
    # your logic goes here
    # ...
    processor = multiprocessing.Queue()
    multiprocessing.Process(
        target=call_command,  # all of our tasks are setup as management commands in django
        args=[
            job_info.management_command,
        ],
        kwargs= {
            'web_processor': processor,
        }.items() + vars(options).items()).start()

result = processor.get(timeout=10)  # wait to get a response on a successful init
# Result is a tuple of [TRUE|FALSE,<ErrorMessage>]
if not result[0]:
    raise Exception(result[1])
else:
   # THE VERY VERY IMPORTANT PART HERE, notice that up to this point we haven't touched the db again, but now we absolutely have to call connection.close()
   connection.close()
   # we do some database accessing here to get the most recently updated job id in the database

솔직히, 경쟁 조건 (여러 동시 사용자가있는 경우)을 방지하려면 프로세스를 포크 한 후 가능한 한 빨리 database.close ()를 호출하는 것이 가장 좋습니다. 그래도 데이터베이스를 비울 기회를 갖기 전에 다른 사용자가 라인 어딘가에 완전히 db에 요청을 할 가능성이 있습니다.

솔직히 말해서 포크가 명령을 직접 호출하지 않고 대신 운영 체제에서 스크립트를 호출하여 생성 된 작업이 자체 django 셸에서 실행되도록하는 것이 더 안전하고 똑똑 할 것입니다!


작업자 함수에 추가 할 데코레이터를 만들기 위해 이전 대신 포크 내부에서 닫는 아이디어를 사용했습니다.
Rebs

1

Postgre에 더 많은 리소스를 제공 할 수 있으며 Debian / Ubuntu에서 편집 할 수 있습니다.

nano /etc/postgresql/9.4/main/postgresql.conf

9.4를 postgre 버전으로 대체합니다.

다음은이를 수행하기 위해 예제 값으로 업데이트해야하는 몇 가지 유용한 라인입니다.

max_connections=100
shared_buffers = 3000MB
temp_buffers = 800MB
effective_io_concurrency = 300
max_worker_processes = 80

Postgre가 사용 가능한 것보다 더 많은 리소스를 사용하려고 할 때 오류가 발생할 수 있으므로 이러한 매개 변수를 너무 많이 늘리지 않도록주의하십시오. 위의 예는 4 개의 코어가 장착 된 Debian 8GB Ram 시스템에서 잘 실행됩니다.


0

필요한 모든 것이 I / O 병렬 처리이고 처리 병렬 처리가 아니라면 프로세스를 스레드로 전환하여이 문제를 피할 수 있습니다. 바꾸다

from multiprocessing import Process

from threading import Thread

Thread객체는 동일한 인터페이스 등을 갖는다Procsess


0

연결 풀링도 사용하는 경우 다음이 우리에게 효과적이며 포크 된 후 강제로 연결을 닫습니다. 전에는 도움이되지 않는 것 같았습니다.

from django.db import connections
from django.db.utils import DEFAULT_DB_ALIAS

connections[DEFAULT_DB_ALIAS].dispose()
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.