- 전체
- 후기 6764
- 후기-카드 1817
- 후기-발권-예약 1242
- 후기-백신 79
- 후기-격리면제 28
- 질문 57187
- 질문-기타 20680
- 질문-카드 11685
- 질문-항공 10188
- 질문-호텔 5197
- 질문-여행 4034
- 질문-DIY 180
- 질문-자가격리 19
- 질문-은퇴 413
- 정보 24213
- 정보-자가격리 133
- 정보-카드 5218
- 정보-기타 8009
- 정보-항공 3829
- 정보-호텔 3234
- 정보-여행 1060
- 정보-DIY 205
- 정보-맛집 217
- 정보-부동산 39
- 정보-은퇴 259
- 여행기 3421
- 여행기-하와이 388
- 잡담 15472
- 필독 63
- 자료 64
- 자랑 722
- 금요스페셜 106
- 강퇴로 가는 길 11
- 자기소개 661
- 구라 2
- 요리-레시피 70
- 오프모임 200
- 나눔 2699
- 홍보 15
- 운영자공지 32
- capture-20230803-142813 1.png (14.8KB)
- capture-20230803-142813 2.png (20.3KB)
복잡한 것도 아니고.. 모른다고 할 것도 아니고 최신의 정보도 아닌!!!!!!
단순 계단을 chat GPT에게 지시했습니다..
작은애 수학 문제를 푸는데 .. 모르겠다고 도와달라는데 ㅠㅠ 계산을 하기가 너~~~~~~~~~~~~무 귀찮은 거예요 ㅋㅋㅋㅋ
그래서 지시 ..
답을 바로 알려줍니다..
근데 인수를 계산해서 왜 그런지를 풀이를 설명해야해서 소인수분해도 시킵니다..
오케이 .. 근데.. 제가 아까 250 3240 288 을 소인수 분해 했을 때 나온 인수 조합으로 도저히 말이 안되는 .. 분해 입니다..
3240에 이미 3의 4제곱이 있는데........???? ..어떻게 최소 공배수가 3의 제곱???????
검산을 해봐도.. 14400의 소인수분해는 저게 아닙니다..
뭐지 .. ㅠㅠ 내가 이제 소인수분해도 못하나? chat GPT가 계산을 틀릴 리는 없으니.. ㅠㅠ 내가 틀린건데.. ㅠㅠ 흑 .......
두번 더 해봐도 안나옵니다..
설마????????????
하고 아예 최소공배수 구하는 식을 내 놓으라고 해봅니다..
............=-= ........... 얘 왜이래요?? 소인수 분해도 못합니다.. ㅋㅋㅋㅋㅋㅋ chat GPT 너 믿어도 ..되니????????
- 전체
- 후기 6764
- 후기-카드 1817
- 후기-발권-예약 1242
- 후기-백신 79
- 후기-격리면제 28
- 질문 57187
- 질문-기타 20680
- 질문-카드 11685
- 질문-항공 10188
- 질문-호텔 5197
- 질문-여행 4034
- 질문-DIY 180
- 질문-자가격리 19
- 질문-은퇴 413
- 정보 24213
- 정보-자가격리 133
- 정보-카드 5218
- 정보-기타 8009
- 정보-항공 3829
- 정보-호텔 3234
- 정보-여행 1060
- 정보-DIY 205
- 정보-맛집 217
- 정보-부동산 39
- 정보-은퇴 259
- 여행기 3421
- 여행기-하와이 388
- 잡담 15472
- 필독 63
- 자료 64
- 자랑 722
- 금요스페셜 106
- 강퇴로 가는 길 11
- 자기소개 661
- 구라 2
- 요리-레시피 70
- 오프모임 200
- 나눔 2699
- 홍보 15
- 운영자공지 32
26 댓글
사벌찬
2023-08-03 10:03:18
Gpt4로 업글하면 잘 풀까요?
멜라니아
2023-08-03 10:05:34
그르게요..아니 근데 4 아니어도 이정도는 해내야 하는 거 아닌가유! 지는 컴퓨터인디! ㅎㅎ
bergamot
2023-08-03 10:17:37
ChatGPT는 언어 모델이지 수학은 시키시면 안됩니다! 다만 ChatGPT Plus를 사용해서 GPT-4에 Wolfram plugin을 연결시키면 어려운 문제도 잘 풉니다. 수학은 전문가에게!
bergamot
2023-08-03 10:20:57
멜라니아
2023-08-03 10:31:38
오옷 감사합니다!!
멜라니아
2023-08-04 03:22:51
어젠 아래 소인수 분해 식만 보고 위에 답을 못봤는데 ..얘도 틀린 것 같아용 ..소곤소곤 .. ^^;;
bergamot
2023-08-04 11:17:34
324000 맞지 않나요? 엑셀로 돌려봐도 324000 나오는데. 근데 검산하긴 싫어요 ^^;;
멜라니아
2023-08-05 03:29:55
아앗 맞네요!! 감사합니당 ㅋㅋ 검산을 하기 귀찮아서 안 했더니 ㅋㅋㅋㅋ
2 5제곱 x 3 4제곱 x 5 세제곱이 저리 큰 수일 줄이야!!!
겨울딱따구리
2023-08-03 10:46:25
> chat GPT가 계산을 틀릴 리는 없으니..
ChatGPT는 그럴듯한 말을 만들어내는 언어모델이지 정확한 사실 (수학/코딩/팩트체킹 등) 을 알려주는게 아닙니다.
멜라니아
2023-08-03 11:02:23
이런이런 컴퓨터이니 당연히 ㅠㅠ 계산따위는 가능할줄요.. 엑셀도 얘가 다 해주고 .. 각종 자격 시험도 통과하는 모델이니 수학 계산쯤이야! 라고 생각했습니다~
JoshuaR
2023-08-03 11:21:57
말만 잘하도록 만들어졌어요. 남들이 풀어놓은거 보고 답을 흉내내어 말할 뿐이지 직접 문제를 풀지는 못합니다. 그래서 어디서 학습된 비슷한 문제의 답을 얘기할 뿐이지 정확히 내가 낸 문제의 답은 아닙니다.
멜라니아
2023-08-03 11:42:10
헉 .......... =-=; .. 울 과장님 chat GPT에 물어봐서 엑셀 좀 해결 해봐..라셨는데 클날뻔 .. 노가다 해야겠어요 ^^;;
어떤날
2023-08-03 17:57:52
ChatGPT에 수학은 물어보면 안된다...큰 교훈이네요.
전 요즘 메일 쓸 때마다 한번씩 점검받아요. 이메일에 조금 더 자신감이 생기는 느낌...아닌 느낌
정혜원
2023-08-03 18:06:51
참고문헌 찾으라고 해보니 너무 잘 보여 주던데 확인해보니 정작 그런 논문들은 하나도 없더군요
MCI-C
2023-08-03 18:49:57
GPT 4에서 플러그인 쓰면 그럭저럭 괜찮은 논문들
찾아줘요.
정혜원
2023-08-03 19:12:25
고맙습니다 플러그인을 어떻게 쓰는지 좀 알려주세요
하와와
2023-08-03 18:30:36
간단한거 비교해달라고 했더니 말은 그럴싸한데 다 틀렸더군요 -_-
멜라니아
2023-08-04 03:23:13
믿으면 안되는 놈인데 .. 얘가 사람을 대체한다니 큰일입니다.. ^^;;
하와와
2023-08-04 05:47:11
러다이트 운동을 해야겠네요 ㅋㅋㅋ
zombiepower
2023-08-03 21:06:54
세종대왕께서 맥북 집어던진 이야기, 이순신장군이 쓰던 라이트세이버에 대해 알려달라고 하면 그럴싸하게 잘 써주더라구요 ㅎㅎ
사실관계 관련된 것은 신뢰하면 안됩니다.
단, 수학 말고 social studies 같은건 구글 bard가 더 답안에 가깝게 알려주는 느낌이에요.
멜라니아
2023-08-04 03:23:27
바드랑도 놀아봐야겠습니다 감사합니당
somersby
2023-08-03 22:46:17
GPT 4로 지난주에 업그레이드 하고, 오늘자로 업데이트 된 GPT 써봤는데요, 나날이 성능은 좋아지고 있는거 같습니다 (연산은 안시켜봤어요).
저는 주로 이메일 작성할 때, 그리고 논문 읽으면서 이해가 잘 안되는 부분 문답할 때 쓰는데요.
특히 논문 읽으면서 이해가 잘 안되는 부분 (or 해석이 안되는 부분)에 대해서 물어보고 답해주고 물어보고 답해주고...이렇게 쓰니까 도움이 되네요. 플러그인 써서 pdf 읽게 하고 하면 도움이 많이 됩니다.
멜라니아
2023-08-04 03:23:53
저도요 이메일 작성 초록 작성 할 때 너무 좋네요 ^^
소바
2023-08-03 23:12:18
저는 파이썬에서 그래프 그릴때 잘 써요!
답을 알고 있으면서 어떻게 표현할지 잘 모를때 쓰면 괜찮더라구요
멜라니아
2023-08-04 03:24:48
맞아요 맞아요.. 영작 할 때도 같은 느낌입니다.
한국말로 쓰고 그걸 영어로 바꿔주삼하면 좀 엉성하고 .. 영어로 괴발개발 ... 기초 수준으로 써놓고 academical words로 바꿔달라하면 기깔나게 바꿔줍니다 ㅎㅎㅎㅎㅎㅎ
poooh
2023-08-04 09:10:27
제가 알기로는 chat GPT는 학습을 통해 지식을 습득해서 그런걸로 알고 있습니다.
여기서 학습이라 함은 수많은 데이타를 마구마구 돌려가면서 가장 많은 경우의 수가 나오는 걸 말합니다. 즉, 동전 한두번 던져서 앞뒤면의 확률이 1/2 라고 나오기 힘들듯 동전을 백번 천번 던져서 확률 1/2 에 도달 하는 것과 비슷한겁니다.
즉, 데이타가 많이 있는 것들은 결과가 잘 나오고, 데이타가 별로 없는건 결과가 애매 하게 나올 수 밖에 없습니다.
여기서 데이타는 주로 internet 인데, 인터넷에 쌓인 데이터가 언어부분은 많이 쌓여 있어서 ( 지금 이렇게 글 올리는 것도 언어이니...),
아마도 글은 기가 막히게 쓸 겁니다. 하지만, 연산 부분은 상대적으로 데이타가 적을 수 밖에 없어서 정확성이 떨어질 수 밖에 없습니다.
예를 들자면 1+1=2 인 답을 내는게 우리가 생각 하듯이 1+1을 연산으로 답을 내는게 아니라. 인터넷에서 1+1 = 2 라고 나오는 수많이 데이터를
반복적으로 봤을때에 확률적으로 1+1=2라는 게 많이 보이드라해서 1+1 = 2 라고 답을 내는 겁니다.
누군가가 미친척하고 인터넷에 1+1 = 1 이라는 에디슨 같은 생각의 데이터를 인터넷에 마구마구 뿌린다면 chat gpt는 1+1=1 이다라고 대답 할 수 밖에 없습니다.
그래서 이에 대한 보안으로 BARD 는 연산 module을 넣었대나 하는것 같습니다. BARD 의 경우에는 아마도 수식을 구분 해내서, 이게 연산이면,
연산 module 로 따로 뽑아 낼겁니다.