E-book
47.25
drukowana A5
59.06
„Inteligencja dziecka: Teorie, pomiar i rozwój”

Bezpłatny fragment - „Inteligencja dziecka: Teorie, pomiar i rozwój”

Psychologia


Objętość:
77 str.
ISBN:
978-83-8431-512-5
E-book
za 47.25
drukowana A5
za 59.06

Wprowadzenie

Temat inteligencji od dłuższego czasu zajmuje czołowe miejsce w badaniach psychologii rozwojowej, psychometrii oraz związanych dziedzin. Mimo że minęło wiele lat, a temat ten nieustannie budzi kontrowersje na poziomie teoretycznym i metodologicznym, pojęcie to wciąż pozostaje niezwykle aktualne. Co więcej, postępy w neuropsychologii, genetyce behawioralnej i kognitywistyce dostarczyły nowego spojrzenia na ten temat. Głównym celem tej publikacji jest przedstawienie pełnego obrazu inteligencji dzieci, uwzględniającego znaczące teorie, metody pomiaru oraz różne uwarunkowania i mechanizmy, które wpływają na jej rozwój.

Zrozumienie inteligencji dzieci ma nie tylko teoretyczne znaczenie, ale również bezpośredni wpływ na praktykę diagnostyczną, edukacyjną i terapeutyczną. Wsp współczesna psychologia rozwoju uważa inteligencję za zmienny element, który kształtuje się w wyniku oddziaływania różnych czynników biologicznych, środowiskowych i kulturowych (Gottlieb, 2007; Sternberg, 2020). Taki sposób rozumienia inteligencji wpisuje się w model biopsychospołeczny, który zakłada dynamiczne powiązanie między genotypem a wpływami ze środowiska (Plomin i Deary, 2015). Szczególnie badania pokazują, że zarówno geny, jak i życiowe doświadczenia mają kluczowe znaczenie w rozwijaniu zdolności poznawczych dzieci, co znacząco wpływa na formowanie się ich inteligencji.

Z tego powodu publikacja ta nie tylko analizuje tradycyjne i nowoczesne teorie inteligencji, ale również ma na celu pokazanie jej rozwoju w kontekście ontogenezy oraz zastosowania w diagnozowaniu i wsparciu psychologicznym dzieci. W literaturze przedmiotu nie ma jednolitej definicji inteligencji, ponieważ różne koncepcje podkreślają różne jej aspekty, takie jak umiejętność logicznego oraz abstrakcyjnego myślenia, uczenie się, adaptację do otoczenia czy umiejętności społeczne (Neisser i in., 1996). Warto również zaznaczyć, że różnorodność tych definicji ilustruje złożoność zjawiska inteligencji oraz jej wieloaspektowość.

W kontekście dziecięcym definicja inteligencji staje się jeszcze bardziej złożona. Należy uwzględnić zarówno stopień rozwoju poznawczego dziecka, jak i wpływ wczesnych doświadczeń związanych z interakcjami społecznymi, jakością opieki rodzicielskiej oraz warunkami edukacyjnymi (Bronfenbrenner i Morris, 2006). Kluczowym elementem okazuje się też możliwość interakcji z rówieśnikami oraz dostęp do różnorodnych bodźców poznawczych, które mogą wspierać rozwój intelektualny. Teoria inteligencji wielorakich stworzona przez Howarda Gardnera (Gardner, 2011) oraz trójwarstwowa teoria Roberta Sternberga (Sternberg, 1985) rozszerzają nasze zrozumienie tego pojęcia, sugerując istnienie różnych, równorzędnych form inteligencji, które mogą manifestować się w odmienny sposób u różnych dzieci. Każda z tych teorii wnosi coś unikalnego do dyskusji na temat klasyfikacji i zrozumienia różnorodnych zdolności manifestowanych przez dzieci.

Zrozumienie, czym jest inteligencja u dzieci oraz jak ją oceniać i wspierać, jest kluczowe dla opracowania skutecznych metod wychowawczych i terapeutycznych. W obliczu rosnącego znaczenia wczesnej diagnostyki oraz konieczności dostosowania procesu edukacyjnego do indywidualnych potrzeb, znajomość różnorodnych profili intelektualnych dzieci staje się istotnym elementem wiedzy dla psychologów, nauczycieli oraz terapeutów (Snow, 1989; Roid, 2003). Każde dziecko jest wyjątkowe, dlatego zrozumienie różnic indywidualnych związanych z inteligencją umożliwia rozwijanie lepszych strategii wsparcia ich rozwoju.

Celem tej książki jest stworzenie zbioru informacji, który łączy naukowe podejście z praktycznymi wskazówkami, aby lepiej zrozumieć zjawisko inteligencji w dzieciństwie i zasugerować kierunki przyszłych badań oraz działań praktycznych w tej dziedzinie. Starając się zintegrować teorię z praktyką, publikacja ma inspirować do refleksji, jak inteligencja dzieci wpływa na ich codzienne życie oraz jakie ma to znaczenie dla ich przyszłości.

Rozdział 1. Początki badań nad inteligencją (Galton, Binet, Stern) rozwinięcie naukowe

Początek badań dotyczących inteligencji, jako dziedziny systematycznego badania naukowego, ma miejsce na przełomie XIX i XX wieku. Choć temat ten jest intuicyjnie znany od czasów starożytnych, gdzie mądrość postrzegano jako synonim cnoty, rozsądku czy umiejętności podejmowania decyzji, to jednak w nowoczesnych czasach do empirycznych badań oraz formalnych ocen. W tym kontekście ważne były zmiany w myśleniu naukowym, rozwój metodologii oraz powstanie psychologii jako odrębnej dziedziny badań. Trzech naukowców Francis Galton, Alfred Binet i William Stern, mieli kluczowy wpływ na ustalenie podstaw psychometrii oraz nowego spojrzenia na inteligencję.

Francis Galton, narodziny psychometrii i biologicznego podejścia do inteligencji.

Francis Galton (1822–1911), brytyjski antropolog, psycholog i statystyk, należał do pionierów prób ilościowego zdefiniowania zdolności umysłowych. W swojej przełomowej publikacji Hereditary Genius (1869) zaprezentował myśl, że wyjątkowe talenty intelektualne są przekazywane dziedzicznie, a ich występowanie można badać za pomocą statystyki w ramach rodzin (Galton, 1869). Jego inspiracją była teoria ewolucji Darwina oraz przekonanie, że różnice indywidualne w zdolnościach poznawczych można wyjaśniać biologicznymi mechanizmami.

Galton był pionierem wdrażania statystyki w psychologii, m.in. ustalił pojęcie korelacji oraz regresji do średniej. Jego eksperymenty w londyńskim laboratorium antropometrycznym (1884) obejmowały badanie szybkości reakcji, czułości zmysłów (słuchu, wzroku), czasów reakcji i innych biologicznych zmiennych, które, jak sądził, odzwierciedlają poziom inteligencji (Fancher, 1985).

Mimo że metody Galtona były zbyt ograniczone i nieskuteczne w prognozowaniu sukcesów akademickich czy społecznych, jego wkład w rozwój psychometrii oraz zastosowanie statystyki w analizie zdolności umysłowych pozostaje niezaprzeczalny. Galton zainicjował także dyskusję na temat eugeniki, która później wywołała wiele kontrowersji etycznych.

Alfred Binet, narodziny funkcjonalnego pomiaru inteligencji. Prawdziwy przełom w badaniach dotyczących inteligencji przyniosły prace Alfreda Bineta (1857–1911), francuskiego psychologa, który jako pierwszy stworzył praktyczne narzędzie do pomiaru zdolności poznawczych u dzieci. W 1905 roku, na zlecenie Ministerstwa Edukacji Francji, Binet wspólnie z Théodore Simonem opracował test mający na celu ujawnienie dzieci wymagających specjalnego wsparcia w edukacji, była to pierwotna wersja skali Binet-Simon (Binet i Simon, 1905).

Test ten zakładał ocenę funkcji poznawczych takich jak rozumienie mowy, pamięć, uwaga, zdolności matematyczne, myślenie logiczne czy umiejętność abstrahowania. Ważnym wprowadzeniem było pojęcie wieku umysłowego — poziomu rozwinięcia intelektualnego dziecka mierzony poprzez zadania odpowiednie dla danego wieku biologicznego. Binet kategorycznie odrzucał pojęcie inteligencji jako stałej cechy biologicznej. W jego podejściu inteligencja była elastyczna, uzależniona od przeżyć, edukacji oraz otoczenia społecznego (Zazzo, 1984).

W odróżnieniu od Galtona, który skupiał się na biologicznej naturze „inteligencji”, Binet zwracał uwagę na funkcjonalne jej przejawy, zwłaszcza na to, jak dzieci radzą sobie z zadaniami wymagającymi myślenia. Ważne jest to, że jego podejście przyczyniło się do powstania psychologicznej diagnostyki dzieci, stając się fundamentem dla dzisiejszej psychologii edukacyjnej i rozwojowej.

William Stern, koncepcja IQ i matematyzacja wyników. Kolejnym ważnym badaczem w dziedzinie inteligencji był William Stern (1871–1938), niemiecki psycholog, który wprowadził formalną metodę przedstawiania wyników testów inteligencji w formie ilorazu inteligencji (IQ, Intelligenzquotient). Stern zauważył, że sam wiek umysłowy nie wystarczy do oceny zdolności dziecka, ponieważ na przykład, 8-latek o wieku umysłowym 6 lat znacznie różni się od 12-latka z tym samym wiekiem umysłowym. W tym kontekście zaproponował wzór:

IQ = (Wiek umysłowy / Wiek biologiczny) × 100

Ta prosta formuła umożliwiła dokładniejsze porównania między osobami i usunęła zależność wyników od wieku dziecka (Stern, 1912).

„Obecnie w psychologii najczęściej stosuje się ilorazy dewiacyjne (oparte na odchyleniu standardowym w określonej grupie wiekowej), jednak koncepcja Sterna miała ogromne znaczenie metodologiczne i stała się podstawą dla nowoczesnych testów inteligencji, takich jak Skale Intelligencji Stanford-Binet czy Skale Wechslera (WISC, WAIS). Stern także wspierał rozwój badań nad różnicami indywidualnymi oraz edukacją dostosowaną do potrzeb, podkreślając znaczenie dopasowywania programów nauczania do unikalnych profili poznawczych dzieci.

Znaczenie wczesnych badań dla współczesnej psychologii. Osiągnięcia Galtona, Bineta i Sterna wyznaczają trzy kluczowe kierunki rozwoju badań nad inteligencją:

Galton, biologiczne podejście do zdolności umysłowych oraz początki statystyki w psychologii;

Binet, pragmatyczny pomiar inteligencji w edukacji, z akcentem na rolę środowiska;

Stern, matematyzacja pomiaru, iloraz inteligencji oraz standaryzacja wyników.

Ich badania utorowały drogę dla współczesnych teorii inteligencji, od modeli czynnikowych (Spearman, Cattell, Carroll), po koncepcje wieloaspektowe (Gardner) oraz teorie kontekstualne i kulturowe (Sternberg). Dzięki ich wkładowi psychologia była w stanie opracować narzędzia do diagnozowania, wspierania i dostosowywania rozwoju intelektualnego dzieci i młodzieży. Kluczowe momenty w rozwoju koncepcji inteligencji.

W historii badań nad inteligencją kluczowym momentem było wprowadzenie przez Charlesa Spearmana idei inteligencji ogólnej, znanej jako czynnik g. Spearman, wykorzystując analizę czynnikową, udowodnił istnienie wspólnego elementu, który wpływa na skuteczność w różnorodnych zadań poznawczych. Jego teoria zainicjowała długą tradycję badań nad strukturą inteligencji, która była kontynuowana przez takich naukowców jak Thurstone (teoria podstawowych czynników), Cattell (inteligencja płynna i skrystalizowana), Vernon (model hierarchiczny) oraz Carroll (model trzech poziomów).

W XX wieku, obok podejść psychometrycznych, rozwijały się również teorie funkcjonalne i kontekstowe, które akcentowały rolę środowiska, kultury oraz doświadczenia życiowego w formowaniu zdolności intelektualnych. Howard Gardner, sceptycznie odnosząc się do istnienia jednej, uniwersalnej inteligencji, zasugerował teorię inteligencji wielorakich, w której wyróżnił m.in. inteligencje językową, logiczno-matematyczną, przestrzenną, muzyczną oraz interpersonalną. Teoria Gardnera przyniosła istotne zmiany w spojrzeniu na edukację, zwracając uwagę na różnorodność zdolności dzieci.

W podobnym nurcie Robert Sternberg opracował teorię triarchiczną, według której inteligencja składa się z trzech składników: analitycznego, twórczego oraz praktycznego. Sternberg krytykował ograniczone podejścia psychometryczne i postulował szersze pojmowanie inteligencji jako zdolności adaptacyjnej w radzeniu sobie z wymaganiami otoczenia

Rozdział 2. Rozwój narzędzi pomiarowych, perspektywa rozszerzona i naukowa

Od momentu, gdy Alfred Binet i Théodore Simon stworzyli w 1905 roku pierwszą skalę do oceny rozwoju intelektualnego dzieci, narzędzia służące do pomiaru inteligencji przeszły znaczną transformację. Początkowa skala Binet-Simon miała na celu identyfikację dzieci potrzebujących specjalistycznej pomocy edukacyjnej (Binet i Simon, 1905). Z czasem testy te były modyfikowane, standardyzowane i rozwijane, co odzwierciedlało zmieniające się postrzeganie samego pojęcia inteligencji.

Stanford-Binet, narodziny standaryzowanych testów. Ważnym etapem w historii pomiaru inteligencji było dostosowanie skali Binet-Simon do amerykańskich warunków przez Lewisa Termana z Uniwersytetu Stanforda. W 1916 roku opublikowano Stanford-Binet Intelligence Scale, który wprowadził koncepcję ilorazu inteligencji (IQ) traktowaną jako stosunek wieku umysłowego do wieku chronologicznego, pomnożony przez 100 (Terman, 1916). Była to pierwsza powszechnie standardyzowana metoda oceny inteligencji w Stanach Zjednoczonych, która miała wielki wpływ na edukację, psychologię i wojsko, między innymi podczas rekrutacji w trakcie I wojny światowej (Gould, 1996).

W następnych latach Stanford-Binet był wielokrotnie aktualizowany (najnowocześniejsza wersja: SB5), uwzględniając nowe teorie, zwłaszcza te oparte na czynnikach (np. modele Cattella-Horna-Carrolla), a także dostosowując procedury do potrzeb klinicznych i edukacyjnych.

Skale Wechslera, czyli profilowe podejście do oceny. W latach 40. XX wieku David Wechsler, amerykański psycholog kliniczny, skrytykował tendencję do redukcji całościowego obrazu inteligencji do jednego wskaźnika IQ. W odpowiedzi na to stworzył Wechsler-Bellevue Intelligence Scale, a później WAIS — Wechsler Adult Intelligence Scale (Wechsler, 1955), który szybko stał się kluczowym narzędziem w diagnozowaniu dorosłych.

Niedługo później powstała także WISC — Wechsler Intelligence Scale for Children, która miała na celu stworzenie szczegółowego profilu funkcjonowania poznawczego dzieci. Obecnie w najnowszej wersji (WISC-V), test ten ocenia pięć głównych wskaźników:

Rozumienie werbalne,

Rozumienie płynne,

Pamięć robocza,

Szybkość przetwarzania,

Zdolności wizualno-przestrzenne (Wechsler, 2014).


Dzięki wykorzystaniu podtestów werbalnych i niewerbalnych, WISC umożliwia lepsze zrozumienie mocnych i słabszych stron dziecka, co wspiera zarówno diagnozę psychologiczną, jak i planowanie edukacyjnej pomocy (Kaufman, 2009).

Testy niewerbalne miały ograniczenie wpływu kultury i języka. Rozwój narzędzi diagnostycznych objął także testy niewerbalne, które miały na celu zminimalizowanie wpływu znajomości języka oraz kultury, co jest szczególnie istotne w przypadku dzieci wielojęzycznych lub z mniejszości kulturowych.

Wśród najważniejszych narzędzi tego typu znajdują się:

Test Matryc Ravena (Raven’s Progressive Matrices) narzędzie oceniające zdolność dostrzegania logicznych relacji i wzorów w układach graficznych, uznawane za wskaźnik inteligencji płynnej (Gf) (Raven, 1938).

Test Leitera (Leiter International Performance Scale) jeden z pierwszych całkowicie niewerbalnych testów inteligencji, opracowany dla dzieci z problemami językowymi, słuchowymi lub mutyzmem (Leiter, 1940; aktualna wersja: Leiter-3).

KABC, Kaufman Assessment Battery for Children, stworzona przez A. i N. Kaufmanów, opiera się na teoriach Lurii oraz modelu Cattella-Horna-Carrolla, co pozwala na elastyczną ocenę dzieci o różnorodnych profilach poznawczych i kulturowych (Kaufman i Kaufman, 2004).

Współczesne narzędzia i integracja z neuropsychologią. Nowoczesne testy IQ, w tym WISC-V, SB5 i KABC-II, łączą najnowsze badania z obszaru neuropsychologii, rozwoju umysłowego, językoznawstwa oraz genetyki behawioralnej. Wykorzystują także normy z różnych grup społecznych i biorą pod uwagę osobnicze różnice w stylach myślenia.

Analiza wyników na wielu poziomach pozwala nie tylko na ocenę ogólnego IQ, ale także na rozpoznanie konkretnych deficytów lub talentów, takich jak dysleksja, problemy z przetwarzaniem języka czy trudności z funkcjami wykonawczymi (Flanagan i Harrison, 2012). Dzięki temu diagnoza staje się bardziej kompleksowa, co umożliwia lepsze dostosowanie strategii edukacyjnych i terapeutycznych.

Związek pomiędzy ewolucją narzędzi a zmianami teoretycznymi. Rozwój narzędzi do mierzenia inteligencji odzwierciedla zmieniające się teoretyczne rozumienie samej inteligencji. Od koncepcji jednolitej inteligencji ogólnej, przez teorie czynnikowe (Spearman, Thurstone, Cattell), po modele wielopoziomowe (Carroll) oraz podejścia funkcjonalne i kulturowe (Gardner, Sternberg), każde z tych podejść zadomowiło się w narzędziach diagnostycznych, które są obecnie coraz bardziej zindywidualizowane, elastyczne i zgodne z aktualną wiedzą na temat neurokognitywności.

Rozdział 3: Klasyczne teorie inteligencji

Pojęcie inteligencji, które jest jednym z istotnych elementów psychologii różnic indywidualnych, od przeszło stu lat jest przedmiotem żywych badań zarówno teoretycznych, jak i praktycznych. Te badania obejmują różnorodne aspekty inteligencji, takie jak rozwój zdolności poznawczych, sposoby ich pomiaru oraz wpływ na różnorodne dziedziny życia ludzi. W szczególności w XX wieku, rozwój psychometrii i analiza czynnikowa umożliwiły coraz bardziej precyzyjne zdefiniowanie oraz zmierzenie struktury zdolności umysłowych. Psychometria, jako gałąź nauki, skupia się na tworzeniu oraz używaniu narzędzi do pomiaru zdolności i cech psychologicznych, co przyczyniło się do głębszego zrozumienia złożoności inteligencji. Podstawowym celem tych badań było zidentyfikowanie kluczowych komponentów poznawczych, które odpowiadają za różnice indywidualne w intelektualnym funkcjonowaniu ludzi, oraz opracowanie modeli ilustrujących ich wzajemne relacje (Deary, 2001).

Tradycyjne teorie inteligencji, które powstały głównie w pierwszej części XX wieku, stworzyły podstawy dla nowoczesnych metod diagnostycznych. Do ważnych postaci tego okresu należą zarówno naukowcy zajmujący się teoretycznymi aspektami inteligencji, jak również ci, którzy skutecznie wprowadzili je w praktykę. Chociaż współczesna psychologia poznawcza i neuropsychologia coraz bardziej akcentują dynamiczny, kontekstualny oraz wielowymiarowy charakter zdolności intelektualnych, tradycyjne modele psychometryczne, oparte na analizie czynnikowej — nadal stanowią fundament konstrukcji i interpretacji najczęściej używanych narzędzi testowych, zarówno dla dorosłych, jak i dzieci (Carroll, 1993; Flanagan i Harrison, 2012).

Pierwsze teorie, takie jak model czynnikowy Charlesa Spearmana, który wprowadził pojęcie ogólnego czynnika „g” (Spearman, 1904), czy koncepcja zdolności pierwotnych Louisa Thurstone’a (Thurstone, 1938), przyczyniły się do utworzenia przekonania, że inteligencja jest złożonym konstruktem, który można przedstawić w formie hierarchii zdolności. Model Spearmana wskazywał na istnienie wspólnego czynnika, który wpływa na wyniki we wszystkich testach intelektualnych, co stanowiło przełom w wielu wcześniejszych jednolitych podejściach. Raymond Cattell z kolei rozróżnił inteligencję płynną (Gf) oraz skrystalizowaną (Gc), podkreślając znaczenie zarówno biologicznych predyspozycji, jak i wpływu środowiska na rozwój zdolności poznawczych (Cattell, 1963). Inteligencja płynna odnosi się do umiejętności rozwiązywania problemów w nowych kontekstach, podczas gdy inteligencja skrystalizowana odnosi się do wiedzy oraz umiejętności zdobytych w wyniku edukacji i doświadczeń życiowych.

Klasyczne teorie stworzyły nie tylko podstawy teoretyczne dla badań takich jak WISC-V, WAIS i Stanford-Binet, ale także umożliwiły identyfikację szczególnych profili poznawczych dzieci i młodych ludzi. Te testy, stworzone na podstawie wcześniej wymienionych teorii, pozwoliły na dokładne określenie zdolności intelektualnych oraz zidentyfikowanie osób obdarzonych wyjątkowymi talentami, jak również tych, które mogą potrzebować większej pomocy. Dzięki nim możliwe stało się dostrzeganie zarówno uzdolnień, jak i ewentualnych problemów rozwojowych, co miało ogromne znaczenie dla edukacji, diagnozy psychologicznej i planowania interwencji terapeutycznych (Kaufman, 2009). Odpowiednie narzędzia diagnostyczne są kluczowe dla skutecznej pomocy dzieciom i dorosłym w rozwijaniu ich potencjału oraz w radzeniu sobie z trudnościami.

W tym rozdziale przedstawione będą najważniejsze klasyczne koncepcje inteligencji, ich pochodzenie, założenia metodologiczne oraz ich wartość dla współczesnej psychologii stosowanej. Omówione zostaną kluczowe teorie strukturalne, takie jak modele Spearmana, Thurstone’a, Vernona, Cattella i Carrolla, ich sedno oraz wpływ na rozwój psychologii i jej praktyki. Warto zauważyć, że oddziaływanie tych teorii sięga poza psychometrię i wpływa na edukację oraz to, jak w dzisiejszym świecie postrzegamy zdolności intelektualne dzieci, co podkreśla znaczenie inteligencji w kontekście osobistego i społecznego rozwoju.

Spearman i czynnik „g”

Charles Spearman (1863–1945) był brytyjskim psychologiem oraz statystykiem, który zapisał się w historii psychometrii jako jeden z jej pionierów i twórca znaczącego pojęcia w badaniach nad inteligencją — czynnika ogólnego „g” (inteligencja ogólna). Jego twórcze podejście do analizy zdolności umysłowych zrewolucjonizowało badania oraz pojmowanie inteligencji. Jako pierwszy wprowadził metodę analizy czynnikowej w psychologii, co otworzyło nowe możliwości dla empirycznych badań struktury zdolności poznawczych (Spearman, 1904).

W serii eksperymentów, które Spearman przeprowadził na początku XX wieku, zauważył interesujący wzór w wynikach uzyskiwanych przez dzieci w różnych testach poznawczych. Zauważył na przykład, że rezultaty osiągane przez dzieci w zadaniach związanych z arytmetyką, językiem czy przestrzenią były ze sobą powiązane. Oznaczało to, że dzieci, które osiągały wysokie wyniki w jednej kategorii zadań, zazwyczaj radziły sobie równie dobrze w innych obszarach, które wydawały się różne. W oparciu o te obserwacje, Spearman sformułował hipotezę o istnieniu uniwersalnego czynnika intelektualnego, który wpływa na efektywność działań w szerokim zakresie zadań umysłowych czynnika „g” (Spearman, 1927).

W swojej teorii Spearman wyróżnił także tak zwane czynniki specyficzne („s”), które odpowiadają za indywidualne różnice w realizacji konkretnych zadań. Dziecko może przykładowo wykazywać wysokie umiejętności w zakresie rozumowania werbalnego (czynnik s), jednak to w kontekście ogólnego poziomu sprawności intelektualnej (czynnik g), który jest niezbędny do skutecznego uczenia się, myślenia oraz dostosowywania się do nowych sytuacji, jego umiejętności nabierają pełnego znaczenia.

Model dwóch czynników Spearmana, znany również jako teoria dwóch czynników, odgrywa kluczową rolę zarówno w teorii, jak i w praktycznych zastosowaniach. Zakłada, że istnieje wspólna, podstawowa zdolność poznawcza, która jest wspólna dla wszystkich testów umysłowych (czynnik g), a równocześnie istnieją także specyficzne czynniki (s), które odpowiadają za różnice w wynikach związanych z danym rodzajem zadania. Matematycznie Spearman przedstawił to jako równanie, które interprtuje wyniki testów jako sumę wkładu czynnika g oraz specyficznego czynnika s, przy uwzględnieniu błędu pomiarowego:

Wynik testu = g + s + błąd pomiaru.

Spearman uważał, że czynnik „g” odzwierciedla zasadnicze zdolności jednostki w zakresie wnioskowania, abstrahowania oraz uczenia się. Funkcje te są szczególnie ważne w kontekście rozwoju dzieci oraz ich funkcjonowania w edukacji. Badania pokazały, że dzieci z wyższym poziomem czynnika g szybciej przyswajają nowe informacje, skuteczniej rozwiązują problemy i łatwiej dostosowują się do różnych wymagań edukacyjnych (Deary, 2001).

Znaczenie czynnika „g” znajduje również odzwierciedlenie w praktyce. Koncepcja Spearmana wywarła ogromny wpływ na rozwój testów inteligencji, zarówno tych klasycznych, jak test Stanford-Binet, jak i nowoczesnych narzędzi, takich jak WISC-V. Większość testów psychometrycznych, niezależnie od konstrukcji, zawiera element, który można zinterpretować jako reprezentację czynnika g (Jensen, 1998).

W aspekcie rozwoju dziecka, czynnik ogólny uznawany jest za kluczowy element procesu poznawczego, który wpływa na różnorodne umiejętności szkolne, takie jak przyswajanie języka, pamięć robocza oraz umiejętność rozwiązywania problemów. Wysoki poziom g może rekompensować niedobory w określonych umiejętnościach, jak te związane z percepcją, podczas gdy niski poziom g często łączy się z trudnościami w nauce, nawet przy przeciętnych umiejętnościach w poszczególnych dziedzinach (Flanagan i Dixon, 2013).

Należy również zaznaczyć, że teoria Spearmana, pomimo wielu zmian i krytyki na przykład ze strony Thurstone’a, Cattella czy Gardnera, pozostaje aktualna i jest nadal uważana za jedno z najlepiej potwierdzonych pojęć w dziedzinie psychologii różnic indywidualnych (Carroll, 1993). Ta teoria nie tylko wzbogaciła nasze zrozumienie inteligencji, ale także wpłynęła na rozwój narzędzi diagnozujących, które mogą wspierać dzieci w ich edukacyjnym i osobistym rozwoju.

Teoria czynników równorzędnych Thurstona

W kontraście do przeważającej na początku XXI wieku idei ogólnej inteligencji, zaproponowanej przez Charlesa Spearmana, amerykański psycholog Louis Leon Thurstone (1887–1955) opracował teorię pierwotnych zdolności umysłowych (Primary Mental Abilities), która jest jednym z kluczowych osiągnięć w historii psychometrii. W swoim przełomowym dziele z 1938 roku zaprezentował przekonanie, że inteligencja nie jest jednorodnym, globalnym konstruktom, lecz zestawem równorzędnych, względnie niezależnych zdolności poznawczych, które pozwalają odróżniać jednostki w kwestiach intelektualnych (Thurstone, 1938).

Założenia metodologiczne oraz identyfikacja pierwotnych zdolności. Thurstone, korzystając z udoskonalonej metody analizy czynnikowej, przeprowadził wiele badań na grupach osób dorosłych i dzieci, co dało mu możliwość określenia siedmiu kluczowych zdolności umysłowych, które jego zdaniem stanowią podstawowe elementy inteligencji:

Rozumienie słówek: umiejętność pojmowania i używania terminologii;

Płynność w mowie: zdolność szybkiego wymyślania słów w ramach określonych kategorii;

Zdolności arytmetyczne: umiejętność w przeprowadzaniu operacji matematycznych oraz rozumowaniu liczbowym;

Zdolności przestrzenne: wyobrażenie i przemieszczanie obiektów w umyśle, oraz orientacja przestrzenna;

Pamięć asocjacyjna: zdolność do zapamiętywania i rekonstrukcji informacji;

Szybkość percepcji: efektywność w identyfikowaniu wzorów oraz różnic i podobieństw;

Rozumowanie indukcyjne: umiejętność formułowania ogólnych wniosków na bazie zebranych danych (Thurstone, 1938; Carroll, 1993).

W przeciwieństwie do Spearmana, Thurstone nie uważał czynnika „g” za najważniejszy. Jego teoria zakładała, że każdy człowiek ma indywidualny zestaw zdolności, z których niektóre mogą być bardziej rozwinięte niż inne przy średnim poziomie pozostałych. Oznacza to, że wysoka umiejętność w zakresie zdolności werbalnych niekoniecznie musi współwystępować z wysokimi umiejętnościami matematycznymi czy przestrzennymi, co ma istotne znaczenie w diagnostyce oraz edukacji dzieci (Jensen, 1998).

Znaczenie dla edukacji i diagnozy dzieci. Teoria Thurstona znacząco wpłynęła na rozwój psychologii edukacyjnej, zwłaszcza w kwestii indywidualnego podejścia do nauczania i tworzenia programów edukacyjnych dostosowanych do specyfiki zdolności ucznia. W przeciwieństwie do koncepcji IQ jako jednego wskaźnika zdolności, jego teoria promowała złożone podejście do oceny potencjału dziecka, co pozwalało na lepszą identyfikację jego mocnych i słabych stron (Flanagan i Harrison, 2012).

W odniesieniu do dzieci, teoria pierwotnych zdolności umożliwia lepsze zrozumienie różnorodności stylów poznawczych prezentowanych przez uczniów. Zgodzić się można, że nie każde dziecko osiąga sukcesy w nauce tylko dzięki wysokim umiejętnościom werbalnym, równie istotne mogą być np. zdolności przestrzenne czy asocjacyjna pamięć. Dlatego podejście Thurstona zbiega się z nowoczesnymi teoriami inteligencji multimodalnych (Gardner, 1983) oraz neuropsychologicznymi koncepcjami rozwoju poznawczego dzieci (Floyd i in., 2007).

Wkład Thurstona w nowoczesną psychometrię. Chociaż nowoczesne modele w szczególności model CHC (Cattell-Horn-Carroll), traktują czynnik ogólny „g” jako najważniejszy, wiele jego elementów jest bezpośrednim rozwinięciem zdolności podstawowych Thurstona. Na przykład w testach takich jak WISC-V, Woodcock-Johnson IV czy KABC-II, układ wyników odzwierciedla wielowarstwowość inteligencji, co podkreśla wartość podejścia komponentowego w diagnostyce (McGrew, 2009).

Teoria Cattella: inteligencja płynna i skrystalizowana.

Raymond B. Cattell w 1941 roku wprowadził podział na dwa rodzaje inteligencji: inteligencję płynącą oraz inteligencję skrystalizowaną. Inteligencja płynąca odnosi się do umiejętności radzenia sobie z nowymi wyzwaniami, nie polegając na wcześniejszej wiedzy, jest zatem silnie powiązana z myśleniem abstrakcyjnym, szybkością przetwarzania danych oraz pamięcią roboczą. Z kolei inteligencja skrystalizowana bazuje na wiedzy i doświadczeniu, które rozwijają się w wyniku nauki i interakcji społecznych.

Przeczytałeś bezpłatny fragment.
Kup książkę, aby przeczytać do końca.
E-book
za 47.25
drukowana A5
za 59.06