데이터 과학 관련 재미있는 인용문


35

다른 지역 사회 의 사용자는 자신의 분야에 대해 재미있는 것을 인용 하는 것이 일반적입니다 . 기계 학습, 딥 러닝, 데이터 과학 및 매일 직면하는 것들에 대한 재미있는 것을 공유하는 것이 재미있을 수 있습니다!


1
데이터 관리 및 아카이빙이
Joe

3
나는 이것을 좋아하지만 실제로 이것은 여기에 속하는가? 아마도 메타에서 더 나을 수도 있습니다.
Mr Lister


1
머신 러닝 알고리즘이 좋은 농담을 할 수있는 에포크 (그리스어의 의미)에서 몇 개의 에포크를 찾아야합니까?
gsamaras

1
@jkf 중재자는 의견에 대한 짧은 답변을 할 수있는 능력, 힘, 힘, 힘, 능력, 권리 및 의도를 가지고 있습니다. 그들은 강력한 생물입니다. 당신은 또한 권투 경기를 추적 할 수 있습니다 .
Media

답변:


41

Q : 전구를 교체하는 데 몇 명의 기계 학습 전문가가 필요합니까?

A : 단 하나이지만 제대로 훈련하려면 백만 개의 전구가 필요합니다.

Q : 형광등을 교체하려면 몇 명의 기계 학습 전문가가 필요합니까?

A : 훈련 데이터에 없었습니다!


5
나는 보통 전구 농담이 지루하다고 생각하지만, 이건 멋지다 : D
Jérémy Blain

3
@ JérémyBlain 다른 모든 전구 농담은 훈련을 받았습니다. 이제 모델로이를 재실행해야합니다.
Lio Elbammalf

33

신경망은 블랙 박스가 아닙니다. 그것들은 선형 대수학의 큰 더미입니다.

https://xkcd.com/1838/

xkcd의 이미지


1
아, 네, 모든 것에 대해 xkcd가 있습니다!
val

15
  1. 데이터를 충분히 오래 고문하면 듣고 싶은 것을 알려줍니다.

  2. 통계는 통계를 신뢰할 수 없음을 나타냅니다.


간결하고 진실한!
gsamaras

14

사실이기 때문에 재미 있다고 생각합니다.

여기에 이미지 설명을 입력하십시오

출처


재밌 네요 ...

여기에 이미지 설명을 입력하십시오


이건 항상 아무 이유없이 나를 깨뜨린 다.

여기에 이미지 설명을 입력하십시오


1
그러나 그러나 큰 불확실성을 가진 바는 내가 믿는 유일한 것입니다. 현실적인 수준의 불확실성을 올바르게 부여한 사람이 아니라 모든 것을 절대적으로 확신한다고 주장하는 사람을 누가 신뢰할 것입니까?
gerrit

1
첫 번째 는 소스를 참조하지 않고 XKCD # 303 의 변형입니다 .
molnarm

13

상용 주의자 vs. 베이지안

Frequentists vs. 베이지안 – xkcd

성적 증명서:

태양이 방금 폭발 했습니까?
(밤이다, 확실하지 않다)

[[Westminster 서체로 말하는 K-9와 비슷하게 사랑스러운 작은 컴퓨터 옆에 두 명의 통계학자가 있습니다]]
Frequentist 통계 학자 : 이 중성미자 검출기는 태양이 신성하게 사라 졌는지 여부를 측정합니다.
Bayesian Statistician : 그런 다음 주사위 두 개를 굴립니다. 둘 다 6 명으로 오면 우리에게 있습니다. 그렇지 않으면 진실을 말해줍니다.
FS : 해보자. [[탐지기에게]] 검출기! 태양이 노바로 갔습니까?
검출기 : << 롤 >> 예.

Frequentist Statistician :
FS : 결과가 발생할 가능성은 입니다. 이후 , 나는 태양이 폭발했다고 결론 지었다.136=0.027p<0.05

Bayesian Statistician :
BS : 그렇지 않은 $ 50.

제목 텍스트 :

'탐지기! 어떤 것 나는 그에게 물었다 경우 베이지안 통계 말 the- 여부 ' [롤] 'I AM 중성미자 검출기하지 미로 GUARD. 심각하게 뇌가 무너 졌습니까? ' [롤] '... 네.'



10

질문 : 머신 러닝과 AI의 차이점은 무엇입니까?

대답:

파이썬으로 작성 되었다면 아마도 기계 학습 일 것입니다.

PowerPoint로 작성된 경우 아마도 AI 일 것입니다.


이것은 더 좋아해야합니다! 너무 사실 !!
raspi

9

여기에 이미지 설명을 입력하십시오

자격이 있는지 확실하지 않지만 다양한 출처에서 가져온 재미있는 사실이 있습니다.

얀 레쿤에서 시작 :

  • 제프 힌튼은 숨겨진 유닛을 만들 필요가 없습니다. 그가 접근 할 때 그들은 스스로 숨 깁니다.

  • 제프 힌튼 그가 contrastively 발산, 당신과 함께 동의하지 않습니다
    (빈센트 Vanhoucke에서)

  • 셰익스피어와 베이 즈는 보트를 타고 낚시를합니다. 베이 즈는 셰익스피어가 다음과 같이 말할 때 어떤 그물을 던질 지 알아 내려고 노력하고있다.

  • Deep Belief Nets는 실제로 Geoff Hinton을 깊이 믿습니다.

  • 제프 힌튼은 뇌가 실제로 어떻게 작동하는지 알아 냈습니다.
    지난 25 년 동안 1 년에 한 번 .

  • 베이지안은 통합 된 후 소외감을 느낄 수있는 유일한 사람들입니다

    그리고 지금 전설 :

    여기에 이미지 설명을 입력하십시오

Reddit 에서 하나 :

YOLO : 한 번만 배우십시오

PS : Ian Goodfellow와 Jurgen Schmidhuber가 Inverse GAN에 관한 논문 (NIPS 2019에서 발표)을 공동 작성하고 있습니다 ( 여기 에서 더 많은 농담 )


8

머신 러닝 알고리즘이 바에 들어갑니다.

바텐더가 묻습니다. "무엇을 하시겠습니까?"

알고리즘은 "다른 사람들은 무엇을 가지고 있습니까?"라고 말합니다.


8

지우다

현명한 사람들이 그것이 가장 현명한 과정이라고 말하기 때문에 신의 역경을 받아들이겠습니다.

얀 르 트럼프! 😂😂😂


4

A : 머신 러닝 선생님이란 무엇입니까? B : 기계 학습이 아니야! 기계 굽기입니다.


여기에 이미지 설명을 입력하십시오

데이비드 마 지니


4

"특히 미래에 대한 예측은 어렵다"

(물리학을 선호하는지 아니면 야구를 선호하는지에 따라 Yogi Berra 또는 Neils Bohr)


3

2006 년에 일반적인 농담은 제목에 "Karl Marx"또는 "Neural Network"가 포함 된 논문을 작성하여 NIPS에 합격 한 상을 수상한다는 것이 었습니다. 이제는 후자의 표준이되었습니다 ... : D

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.