ทฤษฎีการประมวลผลข้อมูลและจิตวิทยา
ปัจจุบันมีอิทธิพลอย่างมากในปัจจุบัน cognitivism เป็นทฤษฎีการประมวลผลข้อมูลซึ่งเปรียบเทียบความคิดของมนุษย์กับคอมพิวเตอร์เพื่ออธิบายรูปแบบการทำงานของกระบวนการทางความรู้ความเข้าใจและวิธีการที่พวกเขากำหนดพฤติกรรม
ในบทความนี้เราจะอธิบายแนวทางและ แบบจำลองทฤษฎีการประมวลผลข้อมูลชั้นนำ . นอกจากนี้เรายังจะทำให้การเดินทางประวัติศาสตร์สั้น ๆ ผ่านแนวคิดของมนุษย์เป็นเครื่องเสนอโดยนักทฤษฎีทุกประเภทมานานหลายศตวรรษ แต่ที่ถึงจุดสูงสุดของมันด้วยลักษณะของวิธีการนี้
- บทความที่เกี่ยวข้อง: "จิตวิทยาความรู้ความเข้าใจ: นิยามทฤษฎีและนักเขียนหลัก"
ทฤษฎีการประมวลผลข้อมูล
ทฤษฎีการประมวลผลข้อมูลเป็นชุดของแบบจำลองทางจิตวิทยาที่ พวกเขาตั้งครรภ์มนุษย์เป็นตัวกระตุ้นแรงกระตุ้น (ข้อมูลหรือ "ปัจจัยการผลิต") ที่คุณได้รับจากสภาพแวดล้อมของคุณ มุมมองนี้ตรงกันข้ามกับความคิดแบบพาสซีฟของคนที่กำหนดทิศทางอื่น ๆ เช่น behaviorism และ psychoanalysis
รูปแบบเหล่านี้จะรวมอยู่ในความรู้ความเข้าใจกระบวนทัศน์ที่ปกป้องความคิดและเนื้อหาทางจิตอื่น ๆ ที่มีอิทธิพลต่อพฤติกรรมและต้องโดดเด่นกว่านั้น พวกเขากลายเป็นที่นิยมในยุค 50 เป็นปฏิกิริยากับท่าทางพฤติกรรมที่แพร่หลายในขณะนั้นซึ่งรู้สึกกระบวนการทางจิตเป็นรูปแบบของพฤติกรรม
การตรวจสอบและแบบจำลองทางทฤษฎีที่พัฒนาขึ้นภายในกรอบของมุมมองนี้ได้ถูกนำไปใช้กับกระบวนการทางจิตจำนวนมาก ควรสังเกต เน้นเฉพาะเกี่ยวกับการพัฒนาความรู้ความเข้าใจ ; จากทฤษฎีการประมวลผลข้อมูลโครงสร้างสมองถูกวิเคราะห์ทั้งในตัวเองและในความสัมพันธ์กับการเจริญเติบโตและการขัดเกลาทางสังคม
นักทฤษฎีในแนวปฐมภูมินี้สามารถปกป้องแนวคิดเกี่ยวกับพัฒนาการด้านความรู้ความเข้าใจซึ่งเป็นปฏิปักษ์กับโมเดลวิวัฒนาการความรู้ความเข้าใจตามขั้นตอนเช่น Jean Piaget มุ่งเน้นไปที่การเปลี่ยนแปลงเชิงคุณภาพที่เกิดขึ้นเมื่อเด็กโตขึ้น พวกเขาได้รับการยอมรับจากการประมวลผลข้อมูล)
- บางทีคุณอาจสนใจ: "The Cognitive Theory ของ Jerome Bruner"
มนุษย์เป็นเครื่องคอมพิวเตอร์
โมเดลที่เกิดขึ้นจากวิธีนี้ขึ้นอยู่กับ การอุปมาอุปไมยของจิตใจเป็นเครื่องคอมพิวเตอร์ ; ในแง่นี้สมองจะรู้สึกว่าการสนับสนุนทางกายภาพหรือฮาร์ดแวร์ขององค์ความรู้หน้าที่ (หน่วยความจำภาษา ฯลฯ ) ซึ่งจะเทียบเท่ากับโปรแกรมหรือซอฟต์แวร์ วิธีการดังกล่าวทำหน้าที่เป็นโครงกระดูกต่อข้อเสนอทางทฤษฎีเหล่านี้
คอมพิวเตอร์เป็นตัวประมวลผลข้อมูลที่ตอบสนองต่ออิทธิพลของ "รัฐภายใน" ซอฟต์แวร์ซึ่งสามารถใช้เป็นเครื่องมือในการดำเนินงานด้านเนื้อหาและกระบวนการทางจิตของผู้คน ด้วยวิธีนี้เราจึงหาทางแยกแยะสมมติฐานเกี่ยวกับความรู้ความเข้าใจของมนุษย์จากปรากฏการณ์ที่ไม่สามารถสังเกตได้
การประมวลผลข้อมูลเริ่มต้นด้วยการรับสิ่งเร้า (ปัจจัยการผลิตในภาษาคอมพิวเตอร์) ผ่านทางประสาทสัมผัส แล้วก็ เราเข้ารหัสข้อมูลเพื่อให้มีความหมาย และสามารถที่จะรวมกับหนึ่งที่เราเก็บไว้ในหน่วยความจำระยะยาว ในที่สุดการตอบสนอง (เอาท์พุท) จะถูกดำเนินการ
- บางทีคุณอาจสนใจ: "Artificial Intelligence vs Human Intelligence: 7 ความแตกต่าง"
วิวัฒนาการของคำเปรียบเทียบนี้
ผู้เขียนที่แตกต่างกันได้ให้ความสำคัญกับความคล้ายคลึงกันระหว่างผู้คนและเครื่องจักรตลอดประวัติศาสตร์ ความคิดของโธมัสฮ็อบบ์ได้แสดงให้เห็นวิสัยทัศน์ของผู้คนว่าเป็น "สัตว์เครื่องจักร" ที่หยิบขึ้นมาเป็นพ่อของพฤติกรรมนิยมจอห์นวัตสันและผู้แทนคนอื่น ๆ ในแนวนี้เช่น Clark L. Hull
Alan Turing, นักคณิตศาสตร์และนักวิทยาศาสตร์ด้านคอมพิวเตอร์ , ตีพิมพ์ในปี 2493 ในบทความ "คำนวณเครื่องจักรและสติปัญญา" ซึ่งเขาอธิบายว่าภายหลังจะเป็นที่รู้จักในฐานะปัญญาประดิษฐ์ ผลงานของเขามีอิทธิพลอย่างมากในด้านจิตวิทยาทางวิทยาศาสตร์ซึ่งได้รับความนิยมจากรูปแบบที่อิงกับการอุปมาอุปมัยของคอมพิวเตอร์
ข้อเสนอทางจิตวิทยาของประเภทการคำนวณไม่เคยกลายเป็น hegemonic ในตัวเอง; อย่างไรก็ตาม ให้ทาง "การปฏิวัติความรู้ความเข้าใจ" ซึ่งเป็นความก้าวหน้าทางธรรมชาติจากพฤติกรรมทางจิตวิทยาของชาวอเมริกันซึ่งกระบวนการทางจิตได้ถูกนำมาใช้ในการเผยแผ่พื้นฐานของพฤติกรรมตามหลักศาสนาแล้ว
โมเดลหลักและผู้เขียน
ต่อไปเราจะอธิบายด้วยวิธีสังเคราะห์สี่แบบที่มีอิทธิพลมากที่สุดที่เกิดขึ้นในกรอบทฤษฎีการประมวลผลข้อมูล
ข้อเสนอเหล่านี้ร่วมกันอธิบายขั้นตอนต่างๆของการประมวลผลข้อมูลซึ่งหน่วยความจำมีบทบาทโดดเด่นโดยเฉพาะ
1. แบบจำลองคลังสินค้าหลายแห่งของ Atkinson และ Shiffrin
ในปี 1968 Richard Atkinson และ Richard Shiffrin ได้นำเสนอแบบจำลองดังกล่าว แบ่งหน่วยความจำออกเป็นสามส่วน ("โปรแกรม" จากคำอุปมาของเครื่องคอมพิวเตอร์): ลงทะเบียนประสาทสัมผัสซึ่งจะช่วยให้การป้อนข้อมูลเก็บระยะสั้นที่จะเรียกว่า "หน่วยความจำระยะสั้น" และเก็บระยะยาวอื่นหน่วยความจำระยะยาว .
2. ระดับการประมวลผลของ Craik และ Lockhart
ไม่นานหลังจากนั้นในปีพศ. 2515 เฟอร์กัสเครุกและโรเบิร์ตล็อกฮาร์ตได้เพิ่มแนวคิดแบบคลังสินค้าหลายแบบว่าข้อมูลสามารถประมวลผลได้โดยการเพิ่มระดับความลึกขึ้นอยู่กับว่าเราจะรับรู้หรือให้ความสำคัญกับมันเท่านั้นจัดหมวดหมู่และ / หรือให้ความหมาย . การประมวลผลลึกซึ่งตรงข้ามกับผิวเผินโปรดปรานการเรียนรู้ .
3. โมเดลการเชื่อมต่อของ Rumelhart และ McClelland
ในปี 1986 ผู้เขียนเหล่านี้ได้ตีพิมพ์ "Distributed Processing แบบขนาน: การวิจัยเกี่ยวกับโครงสร้างจุลภาคของความรู้ความเข้าใจ" ซึ่งยังคงเป็นหนังสืออ้างอิงพื้นฐานในแนวทางนี้ ในงานนี้พวกเขานำเสนอรูปแบบของ เครือข่ายประสาทเทียมของการจัดเก็บข้อมูล ได้รับการสนับสนุนโดยการวิจัยทางวิทยาศาสตร์
4. แบบจำลองหลายองค์ประกอบของ Baddeley
ข้อเสนอของ Alan Baddeley (1974, 2000) ปัจจุบันครอบงำมุมมองของ cognitivist เกี่ยวกับหน่วยความจำในการดำเนินงาน Baddeley อธิบาย ระบบบริหารส่วนกลางเพื่อตรวจสอบปัจจัยการผลิต (วาทกรรม) ภาพและความรู้ความเข้าใจ (visospatial วาระ) บัฟเฟอร์เป็นตอน ๆ จะเท่ากับหน่วยความจำระยะสั้น
บรรณานุกรมอ้างอิง:
- Leahey, T. H. (2004) ประวัติจิตวิทยาฉบับที่ 6 มาดริด: Pearson Prentice Hall
- Atkinson R. C. และ Shiffrin R. M (1968) "หน่วยความจำมนุษย์: ระบบที่เสนอและกระบวนการควบคุม" ใน Spence K. W. และ Spence J. T. (Eds.), จิตวิทยาการเรียนรู้และแรงจูงใจ (ฉบับที่ 2) นิวยอร์ก: สำนักพิมพ์วิชาการ
- Baddeley ก. D. & ผูกปม (1974) กรัม "หน่วยความจำที่ทำงาน" ใน G. H. Bower (เอ็ด), จิตวิทยาในการเรียนรู้และแรงจูงใจ: ความก้าวหน้าในการวิจัยและทฤษฎี (ฉบับที่ 8) นิวยอร์ก: สำนักพิมพ์วิชาการ
- Baddeley, A. D. (2000) บัฟเฟอร์ตอน: องค์ประกอบใหม่ของหน่วยความจำในการทำงานหรือไม่? แนวโน้มในด้านความรู้ความเข้าใจ, 4: 417-423
- Craik, F. I. M. & Lockhart, R. S. (1972) ระดับการประมวลผล: กรอบสำหรับการวิจัยหน่วยความจำ บันทึกการเรียนรู้ด้วยวาจาและพฤติกรรมทางวาจา 11 (6): 671-84
- Rumelhart, D.E. , McClelland, J.L. และ PDP Research Group (1987) การประมวลผลแบบขนาน: การสำรวจโครงสร้างทางจุลภาคของความรู้ความเข้าใจ เคมบริดจ์แมสซาชูเซตส์: MIT Press