Tags:
Node Thumbnail

การปะทะคารมระหว่างอินเทลและ NVIDIA ยังมีอยู่อย่างต่อเนื่องหลังจากที่ทางอินเทลได้เปิดตัวแผนการรวมส่วนประมวลกราฟิกเข้าไปเป็นส่วนหนึ่งของซีพียู แล้วประกาศว่า "ชิปกราฟิกกำลังจะตาย" ทาง NVIDIA ก็ออกมาโต้ตอบด้วยท่าทีที่รุนแรงพอๆ กันว่าซีพียูต่างหากที่กำลังจะตายไป

พนักงานของ NVIDIA ที่ออกมาพูดเรื่องนี้คือ Roy Taylor ในอีเมลของเขาระบุว่าที่จริงแล้วผู้ใช้ไม่ได้ต้องการซีพียูที่เร็วกว่าในตอนนี้ไปสักเท่าใหร่นัก โดยชิปที่ผู้ใช้ต้องการให้เร็วขึ้นจริงๆ คือ GPU หรือชิปกราฟิกนั่นเอง เพราะงานที่ผู้ใช้ต้องการเช่น การชมภาพยนตร์, เร่งความเร็วเกม, และการเข้าบีบอัดภาพยนตร์จากแผ่นดีวีดีก็ตามที

พอดีทำงานกับเซิร์ฟเวอร์อยู่หลายเครื่อง อีกหน่อยถ้าการ์ดจอในเซิร์ฟเวอร์แรงๆ จะได้แอบเล่นเกม

ที่มา - the INIQUIRER

Get latest news from Blognone

Comments

By: Kerberos
AndroidRed HatUbuntuWindows
on 27 April 2008 - 13:09 #49703
Kerberos's picture

ผมก็ยังพอใจกับ i945G ต่อไป

เพราะงานของผมมันไม่ใช่ SIMD นอกจากรัน BOINC เป็นงานอดิเรก

อีกอย่างไม่ชอบเล่นเกมด้วย

ไม่ตายไม่เลิก

By: AdmOd
iPhoneWindows
on 27 April 2008 - 13:22 #49704

ระหว่าง T8100 + GMA X3100 กับ T5500 + Geforce Go 8400GS

...ถ้าราคาเท่ากันผมเลือกอย่างหลังนะ

By: illusion
ContributorAndroid
on 28 April 2008 - 01:44 #49797 Reply to:49704
illusion's picture

เห็นด้วยนะครับนั่น
ถ้าสองตัวเลือกนี้ ผมเลือกอย่างหลังเหมือนกัน
ผมไม่ใช่คนเล่นเกมส์นะครับ (เล่นแต่ The sims ฮา) แต่ยอมรับว่า GPU มันมีประโยชน์มากกว่าไว้เล่นเกมแน่นอน

ผมเองก็คิดว่าทุกวันนี้ CPU มันพัฒนาถึงจุดน่าพอใจแล้ว แต่ GPU มันไปต่อได้อีก
ถึงยังไง...กัดกันไปเหอะ ยังไงมันก็ต้องมาคู่กันอยู่ดี เห็นหลายเครื่องยังไงก็ Intel + NVIDIA อยู่ดี (อย่างน้อยก็เครื่องผมเครื่องนึงอ่ะ)

ว่าแต่ผมคนนึงอ่ะที่ไม่เลือก notebook ประเภทมาแบบว่า X3100 เด็ดขาด เห็นชื่อปั๊บตัดทิ้งออกทันที เหอะๆๆ

ปล. ความต้องการแต่ละคนไม่เท่ากันไงครับ :)

By: macxide
iPhoneAndroid
on 27 April 2008 - 13:48 #49706

เอ๊านัง nvidia เปงบ้ารึไง CPU หากมะมีจำทำงานได้ยังไง ใช้สมองส่วนไหนคิด กราฟฟิกการ์ดจะตายก่อนตะหาก

By: lancaster
Contributor
on 27 April 2008 - 14:32 #49712 Reply to:49706

เขาไม่ได้บอกว่าไม่ต้องใช้ CPU แค่บอกว่าทุกวันนี้มันเร็วมากพอแล้ว

By: DoraeMew
AndroidSymbianUbuntuWindows
on 27 April 2008 - 14:13 #49708

งั้นงานนี้ไม่ Intel ก็ nVidia ต้องตายกันไปข้างสินะ
แล้ว AMD + ATi ก็อยู่รอดต่อไป ... หรือเปล่าหว่า //555+

By: toandthen
WriterMEconomics
on 27 April 2008 - 14:24 #49710 Reply to:49708
toandthen's picture

ด่าไปด่ามา สุดท้ายกลายเป็น Intelvidia


@TonsTweetings

By: sirn
WriteriPhone
on 27 April 2008 - 14:54 #49714 Reply to:49710

ต้องให้ฮากว่านั้น AMD ATi จับมือ Nvidia ถล่ม Intel :p

By: Pop on 27 April 2008 - 15:09 #49715 Reply to:49714

สาวกเชื่อว่า CPU ที่เร็วที่สุดในโลกคือ CPU ของ Apple 555

By: plynoi
WriterAndroidUbuntu
on 27 April 2008 - 15:12 #49716 Reply to:49715

+1 สรรเสริญศาสนา

By: demon69gt on 26 May 2008 - 10:43 #52827 Reply to:49715

กำ แล้ว CPU ของ Apple มันก็ของ Intel ม่ายช่ายเหรอ จับโน่นยัดนี่ปะแป้งแต่หน้าใหม่ใช้ชื่อใหม่

By: paween_a
Android
on 27 April 2008 - 14:34 #49713
paween_a's picture

​"เพราะ​งานทที่​ผู้​ใช้​ต้อง​การเช่น​ ​การชมภาพยนต์"
แก้คำผิดด้วยครับ งานท, ภาพยนต์ เป็น งานม, ภาพยนตร์

By: lew
FounderJusci's WriterMEconomicsAndroid
on 27 April 2008 - 15:57 #49725 Reply to:49713
lew's picture

แก้ไขเรียบร้อยครับ

LewCPE


lewcpe.com, @wasonliw

By: Vithan
iPhoneWindows Phone
on 27 April 2008 - 15:17 #49717
  • -'' คิดได้ไงอ่ะ ... พวกบริษัท card จอนี่มันชอบคิดว่า คนใช้คอมมีแต่พวกบ้าเกมงั้นเหรอ ? งง งี้อนาคตพวก server นี่คงต้องมานั่งหา GPU GeForce XXX ไปลงที่ server แทนแล้วก่ะมั่ง .... เฮ้อออ ออกข่าวมาแบบนี้เนี่ยรั้งแต่จะให้ทาง INTEL หัวเราะฟันร่วงสักมากกว่า
By: lancaster
Contributor
on 27 April 2008 - 15:31 #49719 Reply to:49717

ผมว่าไม่แปลกนะ เพราะฝั่งที่ Intel นำ AMD อยู่ก็ตรง Desktop เนี่ยแหละ ซึ่งคน "ส่วนใหญ่" ก็มีไว้เพื่อเล่นเกมกันทั้งนั้น ดังนั้นการ์ดจอเลยเป็นปัจจัยสำคัญมากไงครับ

By: pt on 28 April 2008 - 22:05 #49897 Reply to:49719

Desktop ไม่ทราบ แต่ Laptop นี่เห็น ๆ

By: tekkasit
ContributorAndroidWindowsIn Love
on 27 April 2008 - 15:35 #49720 Reply to:49717
tekkasit's picture

ถ้าดูในสายตาคนที่เล่นเกมส์กระแสหลักบน PC นี่ ที่ NVIDIA พูดนี่ไม่ผิดนะครับ

คือตอนนี้ embedded graphic ของ Intel แม้แต่รุ่น GMA X3100 ล่าสุดที่ว่ารองรับ DirectX 10 ก็ทำงานได้ดีเฉพาะสองมิติเท่านั้นนะครับ พอเล่นสามมิติขนาด 1024x768 นี่ ซึ่งเป็นขั้นต่ำที่นิยมเล่นในปัจจุบัน ต่ำกว่า 15 FPS เล่นไม่ค่อยจะได้นะครับ

ผู้เล่นเกมส์พีซีทั่วไป คงไม่เลือก CPU แรงๆแล้วใช้กราฟฟิคการ์ดออนบอร์ด แต่ยอมที่จะเจียดเงิน ซื้อ CPU ที่แรงน้อยลงมานิดหน่อย แล้วเอาส่วนต่างไปซื้อการ์ดจอแรงๆหน่อย จะเล่นเกมส์ได้มากกว่านะครับ

ปล. NVIDIA มีแบบ Server แล้วจริงๆนะเออ

See also

http://www.notebookreview.com/default.asp?newsID=4154

http://www.nvidia.com/page/servers.html

By: Vithan
iPhoneWindows Phone
on 27 April 2008 - 15:38 #49722 Reply to:49720

กรี้ดสลบ ... ขอบคุณมากสำหรับ link กำเวงน้อ - -'' เป็นงงครับงานนี้

By: tekkasit
ContributorAndroidWindowsIn Love
on 27 April 2008 - 15:41 #49723 Reply to:49720
tekkasit's picture

แก้ตัวครับ แก้ไม่ทัน

See also

GMA X3100's 3D performance review

NVIDIA's Server

By: mr.k on 27 April 2008 - 16:49 #49730 Reply to:49717

GPU ตอนนี้ถูกนำไปใช้แทน CPU ในการประมวลผลเลขทศนิยมแล้วนะครับเพราะว่า GPU ทำงานได้ดีกว่า CPU เยอะครับ ลองดูในเว็บ nVidia, AMD ดูครับ ซึ่งเทคโนโลยีด้านนี้มี Intel ที่ตามหลังเพื่อนอยู่ Intel เลยค่อนข้างโวยวายไงครับ

By: retroboy
iPhone
on 27 April 2008 - 16:15 #49726
retroboy's picture

สนุกสนานดี ผมเชียร์ AMD+ATI

By: banky118
iPhone
on 27 April 2008 - 16:19 #49727
banky118's picture

ถ้าซื้อโน้ตบุ๊คใหม่ ผมก็เลือก X3100 นะ เพราะผมไม่เล่นเกม แถมประหยัดแบตมากกว่าพวก Dedicated Graphics ทั้งหลายแหล่ด้วย

By: tomyum
ContributorAndroidWindows
on 27 April 2008 - 23:05 #49779 Reply to:49727
tomyum's picture

ผมใ้ช้งานกับ SketchUP 6 มีปัญหาเรื่องไดรเวอร์ ต้องปิดฟังก์ชั่นการใช้งานกราฟิคอะ OpenGL ไม่เก่งแฮะ แต่ก็ประหยัดไฟจริงนะ \(@^_^@)/ M R T O M Y U M

By: Mr.JoH
Writer
on 27 April 2008 - 18:51 #49746

สาธุ ขอให้เป็น AmdTiVidia

Lastest Science News @Jusci.net


Lastest Science News @Jusci.net

By: ninja741 on 27 April 2008 - 18:59 #49748

Roy Taylor เป็น VP ของซัก section นึง nvidia นี่ครับ เรียกพนักงานดูเป็นระดับล่างเลย

เป็นถึง VP แต่ตอบคำถามแบบเด็กทะเลาะกันมากๆ

ที่ Intel บอกมันก็พอเป็นไปได้นะครับ ถึงว่ามันจะยากมาก

แต่ที่ Nvidia บอกนี่ ไร้สาระสุดๆ

มี desktop อีกครึ่งค่อนโลกที่ใช้ทำงาน โดยไม่สนใจว่าใช้การ์ดจออะไรอยู่

ความเห็นผม ถ้ามองไปไกลๆ ผมว่าอีกหน่อยคนจะ upgrade คอมช้าลง บริษัทอย่าง intel รายได้สำหรับ cpu desktop ระดับสูงคงลดลง

ส่วนบริษัทอย่าง nvidia คงอยู่ได้ด้วยรายได้จากทำ chip ให้ game console

console แต่ละ gen ออกมาก็ก้าวกระโดดกันทั้งนั้น อีกซัก 2 gen console คงเล่นเกมส์ได้เหนือกว่าคอม ในราคาถูกกว่าการ์ดจอตัวแรงๆซะอีก

By: lew
FounderJusci's WriterMEconomicsAndroid
on 27 April 2008 - 23:50 #49784 Reply to:49748
lew's picture

+1 informative ในเรื่องของตำแหน่งของ Roy Taylor ครับ

LewCPE


lewcpe.com, @wasonliw

By: obtheair on 28 April 2008 - 13:24 #49835 Reply to:49748

จากย่อหน้ารองสุดท้าย ยังไงๆ nvidia ก็ยังขายได้น้อยกว่า amd(ati) นะครับ
เพราะชิปของ nvidia ลง ps3 เครื่องเดียว แต่ amd(ati) ลงให้ทั้ง xbox360 กับ wii นะ
กำไรต่อหน่วยเท่าไรไม่รู้ แต่ถ้าเรื่องจำนวน amd ฟาดเรียบ(เพราะงี้มั้งที่ทำให้กำไรฝั่ง ati มันพุ่ง แม้ตลาด cpu ของ amd จะร่วง)

By: ThaiBuddy on 27 April 2008 - 19:24 #49752

ผมเห็นหลายความเห็นบอกว่าไม่ใช้ CPU แปลก
สำหรับผมไม่แปลก เพียงแต่เราจะเรียกว่าอะไร(ที่ใช้ในการประมวลผล)
ลองดูที่นี่ดูครับ แล้วจะรู้ว่าคนที่ผลิต CPU ทำไมถึงกลัวคนผลิต GPU กันนัก(ก็มันทำงานเร็วกว่ากันมาก)

=> General-Purpose Computation Using Graphics Hardware

http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse

By: ninja741 on 27 April 2008 - 23:32 #49782 Reply to:49752

ผมผิดเองที่ใช้คำว่า CPU
ที่จริง CPU มันคือคอมทั้งเครื่อง แต่เดี๋ยวนี้ใช้แทนคำว่า Processor กันหมดแล้ว

จะ CPU GPU มันก็ processor กันทั้งนั้น

และ GPU มันก็เร็วกว่าแค่งานเฉพาะทางเท่านั้น เหมือนเอารถ 4WD มาแข่งกับ F1 ดูสนามแข่งก็รู้แล้วว่าใครจะชนะ

ถ้าจะบอกว่า

nvidia เอา CPU มาใส่ใน GPU (ผมใช้คำผิดๆคงไม่ว่ามัน เพราะว่ามันสื่อเข้าใจกว่า)
intel เอา GPU มาใส่ใน CPU

แล้วมันจะต่างกันตรงไหน???

By: cwt
AndroidRed Hat
on 28 April 2008 - 00:46 #49789 Reply to:49782

CPU = Central Processing Unit
GPU = Graphics Processing Unit

By: ThaiBuddy on 28 April 2008 - 00:55 #49793 Reply to:49782

CPU=central processing unit,GPU=graphic processing unit
มันมี processor ทั้งคู่แหละครับ
เพียง CPU ถูกออกให้เป็นงานแบบทั่วๆไป(general purpose)
ส่วน GPU ถูกออกแบบให้ประมวลผลทางด้านกราฟฟิคเป็นหลัก แต่ GPU จะมีความเร็ว/ความแรงมากกว่า CPU เยอะ(ลองดู bus/speed/memory/transistors) แต่ไม่ได้ถูกออกแบบสำหรับงานทั่วๆไป

แต่ก็มีคนนำ GPU ไปทำงานทั่วไป(ตาม link ที่ผม post ไว้) ซึ่งทำได้ดีซะด้วย(คนทำ CPU โดนแย่งตลาดไปบางส่วนแน่ๆ)
Nvidia คงไม่ทำ CPU , ส่วน Intel นั้นใช้ Core ของ PowerVR มาใส่ใน Chipset และ อาจอยู่ใน die เดียวกับ CPU..

ผมว่าประเด็นของข่าวนี้ น่าจะมาจากคำว่า “ชิปกราฟิกกำลังจะตาย” จึงมีการตอบโต้กันมากกว่า ผมว่าเป็นธรรมดาของ Nvidia ที่ต้องโต้กลับ และ ไม่ได้เป็นคำพูดที่แปลกเพราะมีแนวโน้มที่มีหน่วยประมวลแนวใหม่ๆมากขึ้น (งานนี้น่าจะเป็นการเล่นคำของ CPU/GPU ด้วย)

เดิมทีนึกว่าจะรวมกันซะอีก(ตอน AIT รวมไปอยู่ AMD)หรือเป็นแค่เกม?

http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse

By: Priesdelly
ContributorAndroidWindows
on 28 April 2008 - 07:47 #49811 Reply to:49782
Priesdelly's picture

CPU ไม่ใช่คอมทั้งเครื่องนะครับ(ข้างบนบอกความหมายไปแล้ว)
ส่วน CPU กับ GPU สองตัวนี้จะเรียกว่าเป็น Processor ไม่ผิดครับ แต่ทำงานคนละด้าน เหมือน ครูคณิต กับ ครูอังกฤษ เก่งคนละด้านกัน แต่ก็ยังเป็นครู

Priesdelly Blog

By: put4558350
ContributorAndroidUbuntuWindows
on 27 April 2008 - 20:49 #49759
put4558350's picture

รอ amd ฟิวชั้นต่อไป ... ^^


samsung ใหญ่แค่ใหน ?
https://youtu.be/6Afpey7Eldo

By: Marque on 27 April 2008 - 21:13 #49764

NVIDIA เปิดประเด็นได้น่าสนใจมาก

ก็อย่างที่คุณ ThaiBuddy กล่าวไว้ สิ่งที่เราใช้ประโยชน์ทุกวันนี้ก็คือ "การประมวลผล"

CPU ทั้งของ Intel เอย, AMD เอย มันก็คือ "ตัวประมวลผล" ที่มีความสามารถในการ "ประมวลผล" นั่นเอง
สถาปัตยกรรม ARM ที่ใช้กันอยู่ในอุปกรณ์เคลื่อนที่ขนาดเล็กทั้งหลาย ก็มีความสามารถในการ "ประมวลผล" เช่นกัน

หาก Graphic Card มีความสามารถในการประมวลผลได้สูง ก็จะเป็นอะไรที่อันตรายที่สุดสำหรับ Intel

ความสามารถในการเล่นเกมในระดับความละเอียดสูงไปพร้อมๆกับคอยคุมงานของ OS
หรือแม้แต่นำความสามารถสูงๆนี้ มาใช้เพื่อคุมงานทางฝั่ง OS อย่างเดียว หรือแม้แต่นำไปใช้กับทางฝั่ง Server

สงครามนี้เป็นอะไรที่น่าติดตามอย่างมาก เพราะผู้บริโภคอย่างพวกเราได้ประโยชน์ไปเต็มๆ 555

แต่ว่า...ทางฝั่ง AMD จะอยู่เฉยอย่างนั้นหรือเนี่ย
ได้เทคโนโลยีของ ATi ทั้งที น่าจะใช้ให้คุ้มนะ

สามก๊กอีกแล้วละสิ
555

By: SilliCon
Android
on 27 April 2008 - 21:42 #49765
SilliCon's picture

สงสัย nVidia เตรียมพัฒนา cpu รวมเข้ากับ vga คราวนี้เวลาการติดต่อระหว่าง
อุปกรณ์จะลดลงอย่างเห็นได้ชัด เผลอๆ แนวคิดนี้อาจจะถูกใจเกมเมอร์ทั้งหลายก็ได้นะเออ

By: tekkasit
ContributorAndroidWindowsIn Love
on 28 April 2008 - 00:49 #49790 Reply to:49765
tekkasit's picture

เหมือนสามก๊กอ่ะนะผมว่า

  • Intel ครองทั้ง CPU, Chipset เยี่ยม ขาดแต่ 3D GPU ดีๆ
  • AMD กลางๆ ไปได้ทั้ง CPU, GPU รวมไปถึง Chipset (ดี แต่ไม่เป็นที่หนึ่ง)
  • nVidia ครอง 3D GPU แต่ไม่มี CPU
By: Mr.JoH
Writer
on 28 April 2008 - 13:59 #49838 Reply to:49790
  • Intel ==> วุยก๊ก ผู้นำดี,มีอำนาจ แต่ขาดกุนซือและขุนพลเจ๋งๆ

  • AMD ===> ง่อก๊ก ชัยภูมิดี ผู้นำก็โอเค(ออกแนวตั้งรับ) อย่างอื่นปานกลาง

  • nVidia ===> ผู้นำห่วย กุนซือ+ขุนพล ระดับพระกาฬ

Lastest Science News @Jusci.net


Lastest Science News @Jusci.net

By: ipats
ContributorNOOBIn Love
on 28 April 2008 - 01:07 #49795

อ่านข่าวนี้แล้วมีใครนึกถึงพวก x87 บ้าง

---------- iPAtS


iPAtS

By: DoraeMew
AndroidSymbianUbuntuWindows
on 28 April 2008 - 02:02 #49800 Reply to:49795

โอ๊ะ ... คำถามวัดอายุหรือเปล่านี่
แต่ผมเกิดไม่ทันนะ ไม่รู้จัก มันคืออะไรหว่า //ฮาๆ :P

By: mr.k on 28 April 2008 - 02:59 #49803 Reply to:49795

คุ้นๆมาก มันกำลังจะเป็นจริง ถ้าเป็นจริงพลิกเลยนะ เพราะว่าปัจจุบน Intel ประมวลผลทางคณิตศาสตร์ดีกว่าเพราะว่าพื้อนฐาน x87 ดีกว่า AMD แต่ที่นี้พื้นฐาน GPU ฝั่ง AMD เหนือกว่าเห็นๆ

By: deaw on 28 April 2008 - 12:55 #49833 Reply to:49795
deaw's picture

เหอ เหอ math coprocessor เก๋าจริงๆ ครับ

By: iamfalan
iPhoneAndroidWindows
on 28 April 2008 - 03:11 #49805

หลังๆ nvidia เหมือนจะหักกับ intel เลยแฮะ
ก่อนหน้านี้ก็ให้ข่าวโปรโมท embedded platform ของตน (ที่ไปทำ chipset ให้ via เป็น EPIA mini-ITX รุ่นใหม่)
บอกว่า embedded platform ของตัวเองเหนือกว่าของ intel ที่ใช้ celeron (จำไม่ได้ว่าบอกว่ากี่เท่า แต่ถ้าจำไม่ผิดน่าจะบอกว่า 10 เท่า)
เลยทำให้พาลคิดว่า ต่อไปตูจะได้เห็น chipset nvidia สำหรับ intel ไหม
8200 ท่เพิ่งออกมาก็รองรับเฉพาะ AMD ส่วน nvidia version เขาว่ามาเดือนมิถุนายน
ถึงตอนนั้นคงจะรู้ว่า nvidia กล้าหักจริๆหรือเปล่า

By: karncore on 28 April 2008 - 11:16 #49822

CPU ไม่ใช่คอมทั้งเครื่องนะครับ
เพียงครู เค้าสอนเด็กแบบง่าย ๆ เรียกแบบเหมา ๆ เอา
แล้วก็ติดปากติดพันกันมาเป็นปกติ

มองง่าย ๆ เลยครับ

ถ้าใครเรียกคอมทั้งเครื่องว่า CPU แสดงว่าไม่ค่อยรู้เรื่อง (ส่วนใหญ่นะครับ)
ถ้าคุยกับพวกรู้เรื่อง ๆ จะเรียก Case มากกว่า (ไอกล่อง ๆ ที่ใส่ CPU นั่นแหล่ะ)

By: Ford AntiTrust
ContributorAndroidBlackberryUbuntu
on 28 April 2008 - 13:55 #49836 Reply to:49822
Ford AntiTrust's picture

แต่บางครั้งผมคุยกับลุง ป้า น้า อา นี่ก็ cpu ไปแหละ บางครั้งเค้าได้ความรู้มาแบบนั้น แต่ถ้ามีเวลาค่อยอธิบายเพิ่มเติมทีหลัง แต่ส่วนใหญ่มักจะลืม หลัง ๆ เลยไม่ค่อยสนใจเท่าไหร่แล้ว เอาให้เข้าใจทั่วกันเป็นพอ

Ford AntiTrust’s Blog | PHP Hoffman Framework

By: ninja741 on 28 April 2008 - 15:22 #49847 Reply to:49822

เคยคิดมั้ยครับว่า เอ๊! บางที่ครูเค้าอาจจะสอนถูกแล้วก็ได้

เอ๊!พวกที่มั่นใจเรียกว่า case มาตลอดอาจจะผิดก็ได้

ผมถึงบอกแล้วไง คนทั่วไปเรียกผิดกันหมดแล้ว แถมไปบอกว่าคนที่เรียกถูกแล้วผิดอีกตั้งหาก เอาเข้าไป!

ผมก็ไม่เสียเวลามาเถียงเหมือนกันว่า CPU ไม่ใช่ processor ผมก็ยินดีเรียกผิดๆตามเพราะมันสื่อกันง่ายกว่า แต่ไหนๆพูดเรื่องนี้โดยตรงก็เอาซักหน่อยละกัน

ไปหาหลักฐานมาให้เลยนะ อันนี้เอามาจาก britannica นะครับ คงเชื่อถือได้นะ
central processing unit (CPU)
principal part of any digital computer system, generally composed of the main memory, control unit, and arithmetic-logic unit. It constitutes the physical heart of the entire computer system; to it is linked various peripheral equipment, including input/output devices and auxiliary storage units
(ไม่แปลนะครับ)

P.s.แล้วไอ้ข้างล่างเนี่ยทำไมต้องมาบอกว่า "ถ้าใครเรียกคอมทั้งเครื่องว่า CPU แสดงว่าไม่ค่อยรู้เรื่อง" เวลาเรา discuss เรื่องอะไรก็ตาม

ยกหลักฐาน ข้อมูล มาอ้างอิง ทำได้

อ้างเครดิตให้ตัวเอง เช่น ผมจบวิศวะคอมมา ทำได้

แต่การดิสเครดิตที่ตัวผู้พูดของอีกฝั่งเผื่อทำให้ความน่าเชื่อถือเค้าลดลง ไม่สมควรครับ

By: bankkung
ContributoriPhoneAndroidBlackberry
on 28 April 2008 - 16:02 #49853 Reply to:49847

เรียกทั้งเครื่องว่า cpu ไม่ได้ไม่ค่อยรู้หรอกครับ บางทีอาจจะแก่ก็ได้ คนที่พอจะมีอายุหน่อยจะเรียกแบบนั้น บางคนก็คุยกับคนแบบนั้น (เช่นผมคุยกับพ่อ) ก็จะติดเรียกแบบนั้นเวลาคุยกับคนที่ไม่ค่อยรู้เรื่องคอม แต่ถ้าคุยกับ Geek เหมือนกันผมก็เรียกคอม เรียกเคส ซีพียูมันก็หมายถึง intel กับ amd แค่นั้นแหละ (สำหรับ desktop นะ via ไม่นับ ^^) เซนทรัลโพรเซสซิ่งมันก็บอกชัดเจนในความหมาย หน่วยประมวลผลกลาง ไม่ใช่หน่วยประมวลผลทั้งหมด หรือหน่วยประมวลผลรวม

By: lancaster
Contributor
on 28 April 2008 - 16:47 #49861 Reply to:49847

โปรดอ่าน CPU

แล้วไอ้ Britannica ที่คุณบอกมาผมก็ไปค้นมาแล้ว ในนั้น Main memory ก็ไม่ได้อยู่ใน CPU แต่เขาบอกว่า Main Memory มัน linked กับ CPU

ข้างล่างนั้นตัดแปะมาจากเว็บ Britannica

in full central processing unit

Principal component of a digital computer, composed of a control unit, an instruction-decoding unit, and an arithmetic-logic unit.

The CPU is linked to main memory, peripheral equipment (including input/output devices), and storage units. ........ Larger computers may have two or more CPUs, in which case they are simply called “processors” because each is no longer a “central” unit. See also multiprocessing.

อยากรู้จริงๆคุณไปค้นมาจาก Britannica ที่ไหน เนื้อหาถึงได้ต่างกันขนาดนี้

By: ninja741 on 28 April 2008 - 22:27 #49898 Reply to:49861

ของผมเป็นอัน full ของคุณมาจาก concise นะครับ งงเหมือนกันครับว่าทำไมของ concise เนื้อหาขัดกันเอง

ส่วนของผมมาจาก link นี้ครับ บอก britannica ก็เอามาจริงๆครับ จะโกหกไปทำไม :)
http://www.britannica.com/eb/article-9022087

central processing unit (CPU)

principal part of any digital computer system,generally composed of the main memory, control unit, and arithmetic-logic unit. It constitutes the physical heart of the entire computer system; to it is linked various peripheral equipment, including input/output devices and auxiliary storage units

P.s. wiki ที่ให้มากำลังอ่านอยู่ครับ

P.s. พึ่งเห็นว่าอัน concise ตรง compose of ไม่มี main memory แหะ แล้วจะเชื่ออันไหนละ

By: ABZee on 28 April 2008 - 22:38 #49904 Reply to:49898

ทั้ง instruction-decoding unit, control unit, และ arithmetic-logic unit (ALU) ก็อยู่ในส่วนประมวลผลนี่ครับ ทำไมถึงแปลว่ามันเป็นเครื่องทั้งเครื่องไปได้หรือครับ?

ส่วนที่พูดถึงว่า composed of the main memory นั้นน่าจะเป็นได้ได้ในบางกรณี หรือคอมพิวเตอร์สมัยแรกเริ่ม หรือไม่เขาก็กำลังหมายความถึง cache แต่ถ้าให้ถูกต้องน่าจะเป็น linked to มากกว่า เพราะไม่เช่นนั้นแล้วเราคงเรียก main memory ว่าส่วนประกอบของ CPU

ดูคำว่า memory ใน Britannica Online

ไม่รู้ว่าส่วนที่เหลือของ full มันเขียนต่อว่าอย่างไรบ้าง เพราะผมไม่มีบัญชีที่จะดูได้ทั้งหมดซะด้วย แต่ถ้ามีความขัดแย้งกันแบบนี้ผมก็ไม่ค่อยเชื่อถือมันเท่าไหร่นะครับ

PoomK

By: lancaster
Contributor
on 29 April 2008 - 01:39 #49950 Reply to:49904

คิดว่า Main Memory คงเป็นตามที่คุณ ABZee บอกแหละครับ

สรุปแล้วยังไงๆ CPU ก็คือ Processor นั่นเองครับ ไม่ใช่เคส

By: bankkung
ContributoriPhoneAndroidBlackberry
on 29 April 2008 - 01:49 #49949 Reply to:49898

จะง่ายกว่าไหม ถ้าจะยอมรับว่า cpu คือ processor ที่ intel , amd ผลิตมาแปะแหมะอยู่ในเครื่อง ส่วนไอ้ที่กดเปิดปิดเรียกว่าเคส ... ไม่ใช่คุณครูอาจจะสอนผิด ไม่ใช่เรียกตามกันมา แต่ในนี้มีแต่คนที่เรียกได้ว่า geek พอควร ไม่มีคำว่า "เพื่อความเข้าใจของคนทั่วไปที่ไม่เก่งคอมพิวเตอร์" เพราะส่วนใหญ่ที่มาคอมเมนต์ต่อๆนี่ก็ geek กันพอตัวทั้งนั้น

By: Arthuran
iPhoneAndroidUbuntuWindows
on 29 April 2008 - 04:38 #49956 Reply to:49847
Arthuran's picture

ผมว่าคนจบสายคอมแล้วยังเรียกเคสว่า CPU ก็แปลกๆอยู่นะ - -*

arthuran.net :: a tools

By: lew.★ on 2 May 2008 - 11:35 #50400 Reply to:49847
lew.★'s picture

ถูก ภาษาเป็นแค่เครื่องมือสื่อสาร
ถ้าจะสื่อสารกับยูสเซอร์หรือคนที่ไม่ค่อยรู้เรื่องข้างใน
ก็ต้องใช้คำให้ถูก มิฉะนั้นท่านอาจเป็นฝ่ายมึนเอง
แม้แต่ britannica หรือ ดิคชันนารีก็ยังอาจเพี้ยนไปได้
เพียงเพราะคนกลุ่มใหญ่กว่าใช้อย่างนั้น

By: khajochi
WriteriPhoneIn Love
on 28 April 2008 - 11:51 #49827
khajochi's picture

จะว่าไปสุดท้ายอาจจะรวมกันจริงๆก็ได้นะ

---
Khajochi Blog : It's not a Bug ... It's a Feature


แฟนพันธุ์แท้สตีฟจ็อบส์ | MacThai.com

By: lancaster
Contributor
on 28 April 2008 - 12:10 #49829 Reply to:49827

AMD ก็แย่ซิ T_T

By: latesleeper
Android
on 28 April 2008 - 14:07 #49840

ที่เถียงกันมาทั้งหมดนี้เราก็อาจจะได้เพียงประหยัดค่าการ์ดจอเพิ่มหรือไม่ เท่านั้นเองมิใช่ฤๅครับใยสาธุชนท่านจึงจุดประเด็นจนเป็นเรื่องใหญ่กันไปได้เล่า

By: DoraeMew
AndroidSymbianUbuntuWindows
on 28 April 2008 - 16:46 #49863 Reply to:49840

เสียน้อยเสียยาก เสียมากเสียง่าย มากกว่ามั้งนี่
ประหยัดค่าการ์ดจอ? อ้ะ... DirectX 12 ออกมาแล้ว จีพียูที่รวมไว้ในซีพียูไม่รองรับ ต้องอัพเกรดซะแล้ว
แต่เอ๊ะ... ซีพียูที่รองรับ DirectX 12 คนละซ็อกเก็ตใส่กะบอร์ดเราไม่ได้นี่ ต้องเปลี่ยนบอร์ดด้วยสิ
อ้าว... บอร์ดใหม่ใช้แรม DDR6 อย่างเดียว ไม่รับ DDR5 ของเราซะแล้ว ต้องซื้อเพิ่มอีก
งบบานปลายซะแล้น ... กรรม - -"
^
^
สมมุติเล่นๆนะ :P

By: mr.k on 28 April 2008 - 19:37 #49875 Reply to:49863

ถ้ามันรวมจริงๆมันก็จะกลายเป็นมาตรฐานครับเหมือน x87 มีไหมที่ Framework ตัวใหม่ออกมาแล้ว Hardware ไม่ซัพพอร์ท

หรือมองอีกมุมครับ ตอนนี้ GPU ไปอยู่ใน NB ของ nVidia, ATI ตัว Topๆ แล้วนะ แต่ก่อนจะมีแค่ตัวราคาถูก เหตุผลนั้นก็คือเราไม่ได้เล่นเกมส์หรือใช้งาน GPU หนักๆตลอดเวลานี้ครับ งานหนักค่อยเอา Onboard มา SLI, Crossfire กับ Card ทีหลังซึ่งผลดีกว่าการ์ดเดี่ยวๆ งานเบาๆก็ Onboard รับไปเพื่อประหยัดพลังงาน

ดังนั้น On CPU ก็ต้องสามารถทำงานร่วมกับ Card ได้ครับ

By: DoraeMew
AndroidSymbianUbuntuWindows
on 28 April 2008 - 20:12 #49883 Reply to:49875

555+ แหม... ผมก็สมมุติเล่นๆ น่า
ก็ในข่าวนี้ อินเทลประกาศว่า “ชิปกราฟิกกำลังจะตาย”
หากเป็นเช่นนั้น ก็ไม่เหลือการ์ดแยกออกมาแล้วสิ เอิ้กๆ

By: latesleeper
Android
on 28 April 2008 - 19:47 #49841

อ่า ก็จริงนะครับ

By: ThaiBuddy on 28 April 2008 - 18:08 #49869

พึ่งสังเกตุว่า link ที่ผมใส่ไปมัน click ไม่ได้ ขออภัยด้วยครับ
General-Purpose Computation Using Graphics Hardware

เห็นประเด็นไป CPU
ผมเติม Microcontroller ให้ครับ เพื่อความสุกสนาน จะได้มีประเด็นคุยกันอีก :)

http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse

By: theoneox
Android
on 28 April 2008 - 22:27 #49901

Intel บอก GPU จะหมดไปเพราะ CPU สามารถทำงานแทนได้ แต่ว่ามันอีกนานขนาดไหนหล่ะกว่าจะเร็วจนทำงานแทน GPU

์Nvidia บอกไม่ต้องการ CPU เร็วกว่านี้ผมว่าก็จริงนะ เพราะทุกวันนี้ก็เราพอแล้ว

สรุปผมว่า ยังไง CPU ก็ไม่มีวันตาย GPU อ่ะจะตายแต่เมื่อไหร่หล่ะ อีก 20 ปีมั้ง

By: DoraeMew
AndroidSymbianUbuntuWindows
on 29 April 2008 - 00:25 #49932 Reply to:49901

GPU คงตายเมื่อ FPU ของ CPU เร็วกว่าได้ละมั้ง เอิ้กๆ
ขนาดเก่าๆ อย่าง Radeon X1900 XTX ต่อ CrossFire ยังได้เกิน 1 teraflop ไปแล้ว
ยังงี้เมื่อไร CPU จะตามทันละเนี่ย 555+
http://crave.cnet.co.uk/desktops/0,39029426,39195931,00.htm

ยกตัวอย่างข้ามค่ายไปหน่อย แต่หาข้อมูลตัวอื่นแบบมีแหล่งอ้างอิงไม่ได้นะ

By: Marque on 28 April 2008 - 23:33 #49919

พักๆนี้ Blognone เริ่มจะร้อนแรงแฮะ

ผมว่าดีนะ เปิดประเด็นให้มีการแลกเปลี่ยนความคิดเห็นกัน

แต่เหนืออื่นใดก็อยู่บนพื้นฐานของเหตุผลมาหักล้างกันนะคับ

อย่าเอาอารมณ์เป็นที่ตั้ง เด่วจะมาแนวๆพันทิป-ราชดำเนิน

555

By: Pop on 29 April 2008 - 21:00 #50045 Reply to:49919

เป็น เพราะ +, - รึปล่าว

By: rerngrit
Android
on 29 April 2008 - 12:10 #49989

คุยกันในบริบทของข่าว CPU กับ GPU
ดันมาเถียงกันเรื่อง CPU กับ Case - -"
กรรม...(ไม่มีแบ)

Rerng®IT

By: MyFri3nd on 29 April 2008 - 14:20 #50006

ถ้ารวมกันแล้วถูก ก็อยู่ลอด
ถ้ารวมกันแล้วแพง ก็คงยาก

ตอนนี้คนเน้นของถูก หรือไม่ก็ต้องไปขาย hi-end เลย

MyFri3nd.com - เว็บ social network ของคนไทย.

By: mnsone on 19 January 2019 - 11:40 #1092699

ผมว่า การรวม คือการทำให้เล็กลง น่าจะเป็นการก้าวหน้าของการพัฒนา ไปอีกขั้น
ตัว NVIDIA เองต่างหาก ต้องพัฒนา ไม่ไช่ทำแค่การ์ดจอ
ลองคิดดู อีกหน่อย cpu รวม ทุกอย่างไว้เหลือนิดเดียว เราอาจเห็นคอมพิวเตอร์ อยู่บนนาฬิกาข้อมือ และเวลาใช้คอม ก็แค่เปิดจอมอนิเตอร์ที่มีตัวรับwifi ในตัวเอง และคีย์บอรด+เมาส์ ที่พ่วงต่อจอ

By: mnsone on 19 January 2019 - 11:48 #1092701

เมื่อมีการแข่งขันจะทำให้เกิดการพัฒนา NVIDIA ควรสร้างcpu ของตัวเอง และเน้นโชว์การ์ดจอ แล้วแข่งกับทาง intel จะได้มี ผู้ผลิตcpu เพิ่มอีกราย ถ้าโต้ตอบแบบนี้เหมือนกับว่่า ยอมแพ้ไปแล้วครึ่งทาง
อนาคตเราจะได้เห็นคอมพิวเตอร์ที่กดปุ่มดูภาพในอากาศเหมือนในหนัง สักที (ยิ่งเล็กยื่งกินไฟน้อย)