Psychologiaoglna[1].ppt
- Количество слайдов: 93
Na podstawie książki Strelau Jan, Doliński Dariusz Psychologia podręcznik akademicki, t. 1, Wyd. GWP, Gdańsk 2008, s. 339 - 509
Opracowane działy: 1. Spostrzeganie 2. Rozpoznawanie obrazów 3. Wyobrażeniowa reprezentacja rzeczywistości 4. Pojęciowa reprezentacja rzeczywistości 5. Pamięć i uczenie się 6. Uwaga i kontrola poznawcza 7. Myślenie, rozumienie i rozwiązywanie problemów 8. Podejmowanie decyzji 9. Język i komunikacja
Można wyodrębnić dwa warunki skutecznego przystosowania: selekcję bodźców, możliwą dzięki procesom uwagi, oraz wykorzystywanie wcześniejszych doświadczeń, możliwe dzięki pamięci. Pamięć jest fundamentalną właściwością procesów poznawczych, pozwala bowiem zachować ciągłość zdarzeń doświadczanych w różnym czasie, przechowywać zarówno obrazy spostrzeganych i wyobrażanych przedmiotów, jak i obiektów abstrakcyjnych.
1. Spostrzeganie I. Procesy sensoryczne opisują mechanizm kształtowania się wrażeń na skutek pobudzenia receptorów zmysłowych, czyli tej części analizatora zmysłowego, na który oddziałuje bodziec zewnętrzny. Wrażenia mają charakter subiektywny. Bodźce percepcyjne złożone z tak prostych wrażeń jak kolor, kształt czy smak, tworzą w naszych umysłach obrazy przedmiotów zewnętrznego świata. Współczesne koncepcje procesów spostrzegania koncentrują się wokół dwóch pojęć: a) konstruktywizmu: doświadczona rzeczywistość jest tworzona w naszym umyśle b) podejście ekologiczne: spostrzegany świat jest taki, jaki jest w swojej istocie.
a. Psychofizyka klasyczna Najprostszy poziom takiego doświadczania, gdzie pojedynczy i prosty bodziec wywołuje jednostkowe wrażenie. Pierwsze badania w tej dziedzinie prowadził Gustav Fechner (autor prawa Fechnera, zakładającego iż przyrost wrażenia jest logarytmicznie zależny od natężenia bodźca) - 1801 -1887. Przedmiot badań klasycznej psychofizyki odnosi się do analizy związku między bodźcem fizycznym a tą jego psychologiczną reprezentacją, którą nazywa się wrażeniem. Odkrywanie praw psychofizycznych w warunkach idealnych. bodźce kontekstowe - kształtują wrażenie bodźca podstawowego i analiza takich bodźców znalazła miejsce w teorii poziomu adaptacji Helsona.
b. Prawa psychofizyczne Pierwsze prawo psychofizyczne Webera - obserwacje dotyczyły spostrzeganej różnicy w wadze podnoszonych dwóch ciężarków. okazało się, że różnica jest dostrzegana już przy dołożeniu do ciężarka 1/18 jego wagi. Stała Webera stanowiła podstawę formułowania praw psychofizycznych. Związek między subiektywnym wrażeniem bodźca, a jego obiektywną wartością, nazwany został prawem Fechnera. Prawo Stevensa - inny sposób określenia spostrzeganej wielkości bodźca, a jego wielkości obiektywnej. Jest bezpośrednią metodą skalowania wrażeń zmysłowych.
c. Próg zmysłowy i metody jego pomiaru: Próg jest tą wielkością bodźca, która już pozwala na jego dostrzeżenie, lub dostrzeżenie różnicy między nim a innym bodźcem. Można zatem mówić o tak zwanym progu bodźca nazywanym także progiem absolutnym, który odnosi się do tej jego minimalnej wielkości, w jakiej jest już dostrzegany, oraz progu różnicy, czyli już dostrzeganej minimalnej różnicy między bodźcami. Klasyczne pojęcie progu: okazuje się, że ta sama osoba różnie reaguje na ten sam próg - raz go dostrzega, raz nie. ta zmienność reakcji jest zapewne spowodowana tzw. szumem zewnętrznym (hałasem). Zminimalizowanie szumu zewn, nie doprowadziło jednak do wyraźnego zminimalizowania zmienności reakcji. Na tę zmienność wpływa zatem także szum wewn. , nazywany szumem neuronalnym, powodowanym spontanicznym wyładowywaniem OUN. Dodatkowo na ten szum składają się także chwilowe przesunięcia uwagi oraz bicie serca. Aby temu zaradzić, należy mierzyć próg wielokrotnie, policzyć średnią, odchylenie stand. Progiem różnicy jest przedział zmienności mierzony odchyleniem standardowym, policzonym z wielokrotnych porównań.
Sposoby badania progów: - Metoda granic: badanemu prezentuje się w każdej próbie bodziec lub różnicę między bodźcami w kolejnych seriach wstępujących i zstępujących. W każdej serii różnica zwiększa lub zmniejsza się. Kilka serii pozwala wyliczyć podstawowe parametry statystyczne. - Metoda stałych bodźców (metoda częstości trafnych ocen): badanemu przedstawia się w sposób losowy wybrane bodźce ze strefy niepewności. Policzone częstości spostrzeżeń przekształca się w prawdopodobieństwa. - Metoda dostosowywania: obserwator sam dostosowuje wielkość bodźca, aż do chwili gdy stwierdzi jego dostrzeżenie. Częstość reakcji dla danej wielkości bodźca przyjmuje postać krzywej opisywanej rozkładem normalnym. To zjawisko opisuje się jako tzw. efekt sensoryczny w teorii detekcji sygnałów. Kwantowa teoria spostrzegania: opisuje skokową naturę układu sensorycznego. Kwanty czyli progi skokowe, są wyznaczone przez organizm. W związku z tym opracowano metodę kwantową umożliwiającą precyzyjne kontrolowanie czynników wpływających na sposób spostrzegania, takich jak motywacja, uwaga czy zmęczenie, nazywanych zmiennymi pozasensorycznymi.
Okazuje się jednak, że w metodzie kwantowej nie można mówić o eliminowaniu różnych źródeł zmienności, tylko o takim ich określeniu, aby można było precyzyjnie kontrolować ich wpływ na wyniki badań psychofizycznych. Teoria poziomu adaptacji (w badaniach psychofizycznych): W odpowiedzi na Fechnerowską psychofizykę, teoria poziomu adaptacji brała pod uwagę znaczenie kontekstu. Helson zwrócił uwagę na modyfikującą rolę kontekstu w doświadczaniu wrażeń zmysłowych i w swoim podstawowym modelu adaptacji (Adaptation Level Model) wyróżnił trzy elementy, integrowane ze sobą w procesie doświadczenia zmysłowego: 1. zasadniczy bodziec na który człowiek reaguje - np. woda o wysokiej/niskiej temperaturze; 2. wrażenie zmysłowe takiego bodźca zależy od aktualnego w danej chwili poziomu adaptacji, osiągniętego pod wpływem wcześniej działających bodźców i zapisanych w pamięci obserwatora. Te wcześniej doświadczane bodźce pozostawiają po sobie ślad w pamięci i określają drugi element modelu; 3. bodźce kontekstowe zewnętrzne (context stimuli), prezentowane jednocześnie z bodźcem zasadniczym.
d. Teoria detekcji sygnałów: W klasycznej psychofizyce mamy do czynienia z dwoma stanami rzeczy: bodziec lub różnica między bodźcami. Prezentację tego badanemu nazywamy sygnałem lub brakiem sygnału, jeśli prezentowana nie jest. Funkcja psychofizyczna, która pokazuje wzrost prawdopodobieństwa dostrzeżenia bodźca wraz ze wzrostem jego intensywności, jednocześnie ujawnia interesujący mechanizm procesu sensorycznego. W wypadku takiej samej wielkości bodźca znajdującego się w strefie niepewności obserwator nie tylko raz stwierdza, że dostrzega bodziec, a innym razem w ogóle go nie zauważa, ale także doświadcza jego różnej intensywności zależnie od tego, czy w danej chwili aktywność systemu sensorycznego jest duża czy mała. Nawet jeśli nie będzie bodźca, możemy odnieść jego wrażenie wywołane aktywnością OUN. Takie zjawisko nazywamy efektem sensorycznym (opisywanym w postaci statystycznego rozkładu normalnego).
Teoria detekcji sygnałów została po raz pierwszy opracowana przez W. Tannera i J. Sweetsa. Wzbogaca ona badania psychofizyczne o elementy teorii decyzji. W badaniach, poprawne decyzje odnoszą się do dwóch elementów: poprawnego odrzucenia i trafienia. Błędne - do fałszywego alarmu i chybienia. Liczba poprawnych decyzji może być łatwo regulowana konsekwencjami jakie ponosi badany/obserwator. Nie znaczy to jednak, że w sytuacji częstszego stwierdzania sygnału, obserwator będzie lepiej odróżniał sygnał od szumu (bo może zarówno częściej trafiać jak i częściej podnosić fałszywy alarm, co oznacza, że poziom wrażliwości sensorycznej w odróżnianiu sygnału od szumu pozostaje taki sam). Teoria ta bardzo dobrze kontroluje nastawienie obserwatora i oddziela je od czystej wrażliwości sensorycznej. W teorii tej nie ma jednego progu zmysłowego, tak jak w klasycznej psychofizyce Fechnerowskiej, lecz wielość progów decyzyjnych, których wielkość można zmieniać macierzą wypłat lub instrukcją.
Jeden z interesujących problemów jaki został rozwiązany za pomocą tej teorii dotyczy mechanizmu wyobrażania bodźców zmysłowych. Badania S. Segala i V. Fuselli dostarczyły odpowiedzi na pytanie, czy wyobrażanie sobie bodźców wzrokowych czy słuchowych angażuje odpowiadający im analizator zmysłowy. Badacze wykazali, że wyobrażenie bodźców wizualnych zależy od aktywności wzrokowego systemu spostrzegania, podczas gdy wyobraźnia słuchowa aktywizuje percepcyjny system słuchowy. Później Kosslyn dodała, że obrazowe wyobrażenia mentalne aktywizują korę wzrokową, a więc ten sam obszar mózgu, który jest pobudzany podczas percepcji wzrokowej. e. Pamięć sensoryczna: Badania G. Sperlinga przyczyniły się do ujawnienia pamięci ultrakrótkiej (sensorycznej). W zależności od danego analizatora - wzrokowego lub słuchowego - pamięcią ikoniczną lub echoiczną. Pamięć sensoryczna odnosi się zarówno do fizycznych cech bodźców, jak i do ich przestrzennego rozmieszczenia w środowisku fizycznym.
Maskowanie wsteczne: Hipoteza testowana przez Averbacha i Coriella: Jeśli bezpośrednio po prezentacji sytuacji bodźcowej pojawi się tzw. marker maskujący w postaci kółka poprzecinanego kreskami pionowymi i poziomymi, nakładający się na jeden element z prezentowanego szeregu, to ten sam element powinien zostać wytarty z rejestru sensorycznego. Okazało się, że maskowany bodziec nie zostanie wytarty z rejestru jeśli odległość czasowa między markerem a bodźcem będzie na tyle duża, że przekroczy czas pamięci sensorycznej. Pamięć sensoryczna przetwarza odbieraną stymulację wzrokową na poziomie centralnym, a nie peryferyjnym.
II. Organizacja percepcyjna W badaniach nad organizacją percepcyjną, szczególną uwagę poświęca się percepcji kształtu i percepcji przestrzeni. a. Percepcja kształtu: System wzrokowy od razu organizuje kształt spostrzeganego bodźca, wyodrębnia go z tła innych bodźców, które go otaczają i tworzy jego postać w umyśle obserwatora. b. Prawa organizacji percepcyjnej. Max Wertheimer zaproponował prawa percepcyjnego organizowania bodźców, które pokazują różne zasady wyodrębniania postaci z tła.
1. Prawo podobieństwa: elementy podobne do siebie tworzą figurę. 2. Prawo wspólnej drogi: elementy poruszające się w tym samym kierunku są spostrzegane razem i tworzą jedną figurę. 3. Prawo bliskości: elementy położone blisko siebie tworzą jedną figurę, natomiast oddalone od siebie, mogą należeć do różnych figur. (grupowanie). 4. Prawo dobrej kontynuacji: elementy łagodnie przechodzące jeden w drugi tworzą postać, natomiast nagła zmiana kierunku powoduje oderwanie się od siebie tych elementów, które mogą tworzyć odrębne figury. 5. Prawo domykania: system percepcyjny dodaje brakujące elementy w spostrzeganym przedmiocie i zamykając kształt niekompletnej figury tworzy umysłowy obraz rzeczywistości, którego nie ma w świecie fizycznym.
Percepcja przedmiotów w procesie „z dołu do góry” Marr przedstawia koncepcję modularnej organizacji w spostrzeganiu kształtów i przedmiotów. Proces spostrzegania jest umysłową konstrukcją przedmiotu, zbudowaną z podstawowych, prostych elementów, właśnie takich jakie były przedmiotem badań psychologii postaci. Teorię Marra rozbudował Biederman w swojej koncepcji rozpoznawania przedmiotów na podstawie komponentów. Każdy przedmiot składa się z tzw. geonów, prostych figur geometr. Biederman pokazał związek między klasycznymi zjawiskami organizacji percepcyjnej niewiele znaczących bodźców, a postrzeganiem konkretnych i znaczących przedmiotów z otaczającej rzeczywistości. Teoria ta jest koncepcją integracyjną, w której proste elementy składają się na obiekt złożony.
Percepcja przedmiotów w procesie „z góry w dół” Biederman twierdzi, że rozpoznawanie polega na porównaniu spostrzeganego przedmiotu z jego reprezentacją pamięciową, co nawiązuje do modeli rozpoznawania podkreślających dopasowanie bodźca do jego wzorca zapisanego w pamięci. Organizacja percepcyjna nadaje więc znaczenie odbieranym bodźcom na podstawie dotychczasowej wiedzy zakodowanej w pamięci. Takie podejście do procesów spostrzegania sugeruje, że tworzenie w umyśle obrazu przedmiotu z elementów nie jest ich prostym sumowaniem się, ale stopieniem się ich w zupełnie nową jakość (dwie fotografie twarzy dziecka - na jednej po odwróceniu książki pojawia się odpychający grymas) - naturalna sytuacja percepcji uruchamia proces interpretacji bodźców na podstawie zapisanego w pamięci doświadczenia dot. osoby z różnymi wyrazami twarzy. To doświadczenie nazywa się kontekstem wewn. w percepcyjnej organizacji bodźców. J. Bruner i Leo Postman przeprowadzili badania nad spostrzeganiem koloru kart do gry - po przemalowaniu niektórych pików na kolor czerwony badani nie widzieli tej niespójności. Nietypowa karta „zmieniała” swój kolor, aby być w zgodzie z pamięcią. - dobrze oddaje to zjawisko dostosowywania późniejszej informacji do wcześniejszej nazywane konstruowaniem poprzedzającym.
Dobrze znane są figury wieloznaczne, np. kobieta stara - młoda, taki sam układ może być różnie spostrzegany w zależności od posiadanej wiedzy. Wcześniej zapamiętane i przechowywane w pamięci obrazy przedmiotów i zdarzeń nadają znaczenie odbieranemu bodźcowi. Dwa rodzaje kontekstu wchodzą ze sobą w interakcję: - zewn. kontekst sytuacyjny: pokazuje różne funkcje i znaczenie danego przedmiotu w różnych sytuacjach - wewn. kontekstu w postaci struktur pamięciowych nakładanych na odbierany bodziec. Interpretacja bodźców nazywana jest także wnioskowaniem percepcyjnym - dokonuje się w sposób automatyczny i nieświadomy. Dotychczasowe ilustracje i badania pokazujące charakter procesu „z góry na dół” zakładają sekwencyjny proces spostrzegania. Najpierw odbierana stymulacja sensoryczna musi zostać zorganizowana w pewną całość, która następnie porównywana jest z zapisanym w pamięci schematem danego bodźca lub sytuacji, czyli jego kontekstem. Uruchomienie kontekstu językowego powoduje różnicowanie identycznych obrazów dwóch liter (słowa PCHŁA, CHOINKA)
c. Percepcja przestrzeni Gibson znakomicie pokazuje słabości tworzenia teorii percepcji na podst. badań ograniczających człowieka do tylko jednej perspektywy spostrzeganego obiektu. Np pokój Amesa - ma kształt trapezoidalny, a osoby które się w nim znajdują są tej samej wielkości, z tym że jedna z nich mieści się w dalszym kącie pokoju, a druga w bliższym. W. Gehringer i E. Engel stwierdzili mniejsze zniekształcenie percepcji przedmiotów u badanych, jeli spostrzegali oni pokój Amesa dwojgiem oczu i poruszali głowami. Choć swoboda poruszania się nie eliminowała całkowicie złudzenia, to jednak istotnie je zmniejszała. Gibson wprowadził zatem pojęcie niezmienników przedmiotu, czyli jego stałych właściwości, które są odkrywane podczas poruszania się wokół przedmiotu lub w trakcie jego ruchu wzgl. obserwatora.
d. Stałość percepcji: Stałość kształtu i wielkości Stałość kształtu zachowujemy w różnych perspektywach spostrzeżeniowych znanego nam wcześniej przedmiotu. Efekt stałości jednak nie wystąpi, jeśli spostrzegany obiekt nie będzie zawierał w sobie wskazówek aktywizujących wiedzę na temat jego trójwymiarowej struktury. Dopiero posiadana wiedza dot. lokalizacji przedmiotów w perspektywie, w interakcji z bodźcami percepcyjnymi tworzy percepcyjny obraz otaczającego środowiska. Istotną rolę pełni gradient struktury, który odpowiada stałości wielkości. W spostrzeganiu głębi istotną rolę odgrywa także gradient jasności, tak zwane cieniowanie różnych części przedmiotu Stałość jasności: David Katz przeprowadził eksperyment, w którym wykazał stałość percepcji jasności przedmiotu. e. Widzenie dwuoczne: Doświadczana różna szybkość przesuwających się przedmiotów, które znajdują się w różnej odległości od obserwatora nazywa się paralaksą ruchu.
III. Wyodrębnianie cech i schematy poznawcze w spostrzeganiu: Pokazuje to przenikanie się dwóch pojęć: znaczenie integracji prostych elementów w wyodrębnianiu figury z tła, drugie wskazuje na ważność posiadanej wiedzy w rozpoznawaniu przedmiotu. Julesz w swoich badaniach wprost nawiązuje do badań neurofizjologicznych nad tzw. detektorami cech, które są zespołem neuronów reagujących na specyficzne właściwości środowiska. Przykładem są detektory owadów u żab. Początkowo proste wyodrębnianie cech przekształciło się w hierarchiczną strukturę integrującą cechy w coraz bardziej złożone właściwości tworzące umysłową reprezentację przedmiotów i zdarzeń. To podejście odpowiadające procesowi „z dołu do góry” w spostrzeganiu rozwijane w teorii integracyjnej Konorskiego i teorii geonów Biedermana uzupełnia się z podejściem centrującym znaczenie wiedzy w percepcji.
2. Rozpoznawanie obrazów: Rozpoznawanie jest wzbudzeniem przez bodziec sensoryczny zapisanej w pamięci jakiejś struktury percepcyjnej, nazywanej wzorcem, najlepiej reprezentującej rozpoznawany przedmiot. Bruner oraz Neisser nazwali proces polegający na wzbudzeniu tej samej struktury przez różne bodźce i przyporządkowaniu im jednej reakcji rozpoznawaniem obrazów. Thomas Palmeri i Isabel Gauthier wskazują, że choć teorie rozpoznawania obrazów i teorie kategoryzacji percepcyjnej dotyczą tego samego przedmiotu badań, to koncentrują się na nieco innych stadiach przetwarzania informacji. Te pierwsze dostarczają szczegółowego opisu reprezentacji obiektu w umyśle, te drugie większy akcent kładą na sposobach stosowania takiej reprezentacji w procesie klasyfikowania obrazu do danej kategorii.
Organizacja percepcyjna jako proces kategoryzacji. Palmer, Rosch i Chase podjęli się empirycznego opracowania tzw. uprzywilejowanej „kanonicznej” perspektywy spostrzeganych przedmiotów, w której są one spostrzegane najszybciej i najłatwiej. Na podstawie badania można stwierdzić, że kluczowym elementem odróżniającym kategoryzację percepcyjną od procesów spostrzegania jest badanie stopnia reprezentatywności różnych obrazów przedmiotu w jego rozpoznawaniu. Perspektywa kanoniczna stanowi tzw. prototyp kategorii. Innym podejściem jest zaproponowana przez Biedermana koncepcja rozpoznawania przedmiotu na podst. jego komponentów. Można określić zbiór różnych zniekształceń przedmiotu, które tworzą kategorię percepcyjną. W tym zbiorze znajduje się także kompletny, a więc prototypowy obraz przedmiotu. Klasyczne teorie kategoryzacji percepcyjnej Nastawienia percepcyjne określają różny sposób spostrzegania takich samych bodźców, co w teoriach organizacji percepcyjnej jest opisywane jako zjawisko wieloznaczności.
Koncepcja dopasowania obrazu do wzorca Przedstawiona przez M. Arbiba opisuje najprostszy i intuicyjnie najbardziej zrozumiały proces rozpoznawania bodźców percepcyjnych. Jeśli mamy wytworzony w pamięci wzorzec, to dopasowujemy do niego spostrzegany obraz. Koncepcja dopasowania wprowadza tzw. normalizację obrazu. Może on zostać przesunięty, obrócony, zmniejszony, tak aby pasował do wzorca. Koncepcja analizowania cech Teorie opisujące rozpoznawanie obrazów w syt. , kiedy proces normalizacji obrazów nie przynosi skutku, odnoszą się do systematycznej analizy poszczególnych cech charakteryzujących wzorzec i porównywany z nim obraz. Po rozłożeniu obrazu na jego pierwotne elementy sprawdza się, które z nich znajdują się także we wzorcu. Koncepcja ta odnosi się do nieprecyzyjnej kategorii. Prototypowe modele kategoryzacji - model oparty na odległości od prototypu - model statystyczny
Egzemplarzowe modele kategoryzacji - model Medina i Schaffer (kategoryzacja egzemplarza polega na jego porównywaniu ze wszystkimi zapamiętanymi egzemplarzami należącymi do różnych kategorii, a nie ich prototypami) - koncepcja Nosofsky’ego nazywana uogólnionym modelem kontekstowym (do elementów modelu, poza wielkością podobieństw został wprowadzony parametr uwagi, kontrolujący te podobieństwa w procesie uczenia się kategorii. Człowiek spostrzegając egzemplarze należące do różnych kategorii, większą uwagę zwraca na różniące je cechy, spostrzegając zaś bodźce należące do tej samej kategorii, koncentruje się na ich wspólnych właściwościach.
Kontekst w kształtowaniu relacji podobieństwa Spostrzegany obraz danego przedmiotu może się zmieniać w zależności od tego, jak jest klasyfikowany. Kluczowym elementem badań Goldstone’a był wpływ kategoryzacji na spostrzeganie egzemplarzy, które ze wzgl. na swoją barwę polaryzują się w szczególny sposób w umyśle obserwatora (inaczej spostrzegany kolor cyfry 8 i litery L), Badanie pokazuje tzw. efekt kontrastu i asymilacji. Pierwszy występuje gdy na danym wymiarze wielkość bodźca jest zniekształcona tak, że odróżnia się go od innych bodźców. Efekt asymilacji zaś pojawia się gdy na danym wymiarze wielkość bodźca jest tak zniekształcona, że zbliżą go do innych bodźców. Bodźce należące do jednej klasy „przyciągają się”, stają się podobne, natomiast bodźce należące do dwóch różnych klas „odpychają się”, stają się różne. Znaczenie kontekstu w doświadczaniu podobieństwa można zaobserwować w demonstracji Sjoberga w kategoryzacji semantycznej. Kontekst pozostałych bodźców określa pewien standard porównania, analogiczny do poziomu adaptacji opisanego przez Helsona w psychofizyce.
Goldstone, Medin i Halberstadt zastosowali schemat prezentacji bodźców percepcyjnych - twarze, w którym dokładnie kontrolowali ich właściwości. Twarze z zestawów odpowiadały wzorcowi w jednym elemencie lub dwóch. Jeśli bodźce znajdujące się w danym zbiorze mają cechę przyjmującą różne wartości, to jest ona mocno różnicowana i ma większą wagę w określaniu podobieństwa bodźca do standardu. 3. Wyobrażeniowa reprezentacja rzeczywistości Obecnie wyobrażenia ujmuje się jako reprezentacje jakiegoś obiektu lub zdarzenia, występujące pod ich nieobecność. Przedmiot naszego wyobrażenia nie może być w zasięgu naszych zmysłów - jeśli znajduje się w zasięgu to mamy spostrzeganie. Reprezentacja powinna mieć charakter zmysłowy, tzn. powinna zawierać elementy pochodzące z innych modalności zmysłowych. U ludzi dominują wyobrażenia o modalności wzrokowej (Kosslyn, Seger, Hilger). W badaniach nad marzeniami sennymi (Okada, Matsuoka, Hatekeyama) okazało się, że najczęściej występowały elementy wzrokowe, jakkolwiek dość często pojawiały się też odczucia kinestetyczne, a najrzadziej - węchowe i smakowe. Można wyodrębnić trzy grupy osób różniących się rodzajem modalności doświadczanych w snach: dominujące modalności główne: wzrokowa, słuchowa i kinestetyczna. W snach występowały wszystkie modalności oraz w snach nie pojawiały się w ogóle elementy zmysłowe.
Reprezentacje o różnym poziomie realizmu - spostrzeżenia: występują w obecności obiektu spostrzegania i są maksymalnie do tego obiektu podobne, wyjątkiem są różnego typu złudzenia zmysłowe - obrazy ejdetyczne: są to - podobnie jak wyobrażenia - obrazy pamięciowe, cechujące się jednak znacznie większą wiernością i detalicznością. - wyobrażenia: można je również traktować jako pewną formę pamięci wzrokowej lub pamięci w zakresie innej modalności. Przypisywany wyobrażeniom ton emocjonalny jest w subiektywnym odczuciu dziełem jednostki. - halucynacje: wyobrażenia, które są traktowane jak rzeczywistość, błąd w określeniu źródła pewnych doznań. Wśród halucynacji dominują halucynacje słuchowe, rzadziej natomiast wzrokowe. Sytuacja jest dokładnie odwrotna w stosunku do wyobrażeń. Zjawiskiem zbliżonym do halucynacji są pseudohalucynacje. Ludzie którzy ich doświadczają twierdzą, że są one narzucone z zewnątrz i obiektom, które się w nich pojawiają, nie przypisują realnego istnienia.
Wyobrażenia a inne typy reprezentacji Teoria podwójnego kodowania Alana Paivio. W teorii tej wyróżnia się dwa podst. systemy: werbalny i niewerbalny. Paivio wyszedł od zaproponowanego przez Mortona pojęcia logogenu, który wg Mortona oznaczał strukturę odpowiedzialną za generowanie reprezentacji obrazowych - imageny. Teoria zakłada, że oba systemy są niezależne, lecz wzajemnie powiązane - aktywność poznawcza może przebiegać w każdym z tych systemów oddzielnie, albo też oba systemy mogą działać równocześnie. Operacja abstrahowania i tworzenia coraz to nowych ogólniejszych pojęć w systemie obrazowym ma ograniczony zasięg. Pavio w badaniach doszedł do następujących wniosków: ludzie szybciej uczą się materiału o dużym ładunku obrazowym niż materiału o charakterze abstrakcyjnym. Słowa o dużym ładunku obrazowym mogą być kodowane podwójnie, zarówno w kodzie obrazowym jak i w kodzie werbalnym. Dane te bezpośrednio potwierdzają koncepcję podwójnego kodowania: gdyby istniał tylko jeden kod, wtedy słowa o dużym ładunku obrazowym nie byłyby lepiej zapamiętywane. Koncepcja Pavio budziła jednak kontrowersje - najwięcej ich dotyczyło założenia o istnieniu obrazów umysłowych. Obrazy umysłowe mogą być produktem innych procesów, które zachodzą na poziomie głębokim - to zagadnienie dobrze opisuje komputacyjna teoria umysłu.
Komputacja ma miejsce gdy pewien zbiór danych na wejściu jest przekształcany w pewien zbiór danych na wyjściu. Komputacyjne teorie wyobraźni są różnicowane ze wzgl. na dwa kryteria: a) jakie rodzaje reprezentacji podlegają komputacjom? b) w jaki sposób wykonywane są specyficzne komputacje? Komputacyjne teorie wyobraźni dzielą się ze wzgl. na to, czy wypuszczają tylko jeden, czy więcej rodzajów reprezentacji wykorzystywanych przez wyobraźnię. Stanowisko obrazowe i propozycjonalne: czyli postulujące istnienie reprezentacji głębokich w postaci zbiorów twierdzeń, z przedstawicielami stanowiska obrazowego, dopuszczającego istnienie odrębnych reprezentacji obrazowych. Przedstawicielem pierwszego stanowiska był Pylyshyn, drugiego zaś - Kosslyn. Polemika ta nigdy nie doczekała się ostatecznego rozstrzygnięcia.
Eksperymenty nad rotacjami umysłowymi: Shepard zajmował się tym tematem w badaniach, obliczenia wykazały, że ludzie potrafią obracać figurę o ok. 50 stopni w czasie 1 sekundy. Czas rotacji umysłowej zależy wprost proporcjonalnie od wielkości kąta rotacji. Może ona odbywać się w kierunku zgodnym z ruchem wskazówek zegara lub w kierunku przeciwnym. Umysł zapewne wybiera ten kierunek, który wiąże się z mniejszą rotacją. Zależność wprost proporcjonalna między kątem rotacji a czasem stopniowo zanika, gdy badany jest uprzedzany o tym, w jakim położeniu będzie eksponowany bodziec porównawczy. Czas rotacji nie zależy od stopnia złożoności figury płaskiej, ani od wymiaru dokonywania rotacji. Pawiany dokonują rotacji znacznie szybciej niż ludzie, u pawianów jest to czynność silnie zlateralizowana. Badanie nad skanowaniem umysłowym: odnosiło się do tzw. efektu odległości. Badanych proszono o zapamiętanie mapy (analogiczne wyniki można uzyskać u osób niewidzących) a następnie zadawano pytania dotyczące znajdujących się na niej/ lub nie elementów.
Wyobrażenia i wyobraźnia Na konieczność rozróżnienia ich zwrócił uwagę Thomas, który stwierdza, że przynajmniej część dotychczasowych badań nie uwzględnia aktywności podmiotu ani faktu, iż ludzie mogą generować wyobrażenia. Pojawienie się wyobraźni wiąże się z wyodrębnieniem struktury JA, która jest czymś w rodzaju źródła wewnętrznej aktywności psychicznej. Informacji o takiej formie JA dostarczają badania nad pamięcią autobiograficzną. Punktem wyjścia dla tych badań było stwierdzenie przez Gallupa, że szympansy są zdolne do rozpoznawania się w lustrze. Dzieci z kolei są zdolne do tego w 18 -24 miesiącu życia. Dzieci mają nie tylko chwilowe wyobrażenie siebie, ale obraz ten cechuje się pewną stałością. W wieku 4 -5 lat pojawia się stałe wyobrażenie własnej osoby. inne badania pokazały, że z dojrzałością w zakresie reagowania na odbicie własnej postaci idzie w parze sprawność w wykonywaniu piagetowskich zadań dotyczących zachowania ilości. Wyobraźnia może zniekształcać pamięć, o czym świadczy zjawisko inflacji wyobraźni.
4. Pojęciowa reprezentacja rzeczywistości Pojęcie rozumiane jest jako reprezentacja umysłowa, która odnosi się do jakiegoś zbioru obiektów i w której skład wchodzą istotne właściwości tych obiektów. Sposoby łączenia tych właściwości w obrębie reprezentacji: - koniunkcja właściwości poprzez ich sumowanie np. „figura geometryczna jest kwadratem kiedy ma cztery kąty proste i cztery boki równe” -dysjunkcja właściwości np. pudel jest psem i może mieć białą lub czarną sierść Wg Medina ludzie nie tyle odkrywają kategorie, ile nakładają je na istniejącą rzeczywistość. Lista sposobów klasyfikowania obiektów w świecie rzeczywistym jest potencjalnie nieskończona.
Medin, Lynch i Solomon wyróżniają trzy podst. typy kategorii: a) kategorie naturalne: wyróżniają się same i wydaje się nam, że istniały zawsze b) kategorie sztuczne: odnoszą się do przedmiotów zrobionych przez człowieka. Podobieństwo wewnątrzkategorialne nie jest juz tak oczywiste c) kategorie nominalne: są pewnymi konwensjami lingwistycznymi - w wyniku ich działania jakieś nazwy zostały przypisane pewnym bytom, spałniającym określone warunki, np. „kawaler” rozróżnienie kategorii wg Barslou’a: a) kategorie taksonomiczne: mają wyraźnie wyodrębnione cechy wspólne b) kategorie zorientowane na cel: przy klasyfikowaniu tej kategorii nie jest wykorzystywana zasada podobieństwa do innych egz. w obrębie kategorii ale zasada ideału - poszukuje się egz. który w idealny sposób np. chroni nas przed mrozem i śniegiem c) kategorie ad hoc: tworzone są w sposób spontaniczny i zawierają przedmioty przydatne w pewnej specyficznej sytuacji
Funkcje pojęć są bardzo zróżnicowane. Oprócz funkcji intraindywidualnych pojęcia pełnią również funkcje interindywidualne, ponieważ wykorzystywane są w procesie komunikowania się z innymi, a ponadto mogą stanowić element perswazji. Funkcje pojęć: a) zapewnienie ekonomii funkcjonowaniu poznawczemu poprzez redukcję różnorodności informacji przetwarzanych przez umysł. Czasem dążenie do ekonomii poznawczej może prowadzić do błędów, niesłusznie poszukuje się pewnych właściwości tam, gdzie obiekty należące do jakiejś klasy są bardzo zróżnicowane, np. stereotypy etniczne, przedstawiciele grupy „obcej” grupy mają pewne cechy wspólne, a grupa własna wprost przeciwnie - jest bardzo zróżnicowana. Drugi błąd polega na niewłaściwej identyfikacji owych cech wspólnych. Proces przyswajania różnych pojęć jest uwarunkowany kulturowo. b) rozumienie i wyjaśnianie; dzięki traktowaniu obiektów wchodzących w zakres pojęcia jako równoważnych można wykorzystywać dotychczasową wiedzę w odniesieniu do nowych obiektów należących do danej grupy. c) wnioskowanie; dzięki pojęciom możemy wyciągać wnioski z przesłanek d) funkcja komunikacyjna - umożliwia pośrednie uczenie się
Tajfel i Wilkes zwrócili uwagę na to, że posługiwanie się pojęciami zwiększa tendencję do wyrównywania różnic pomiędzy obiektami wchodzącymi w zakres pojęcia i do wyolbrzymiania różnic między obiektami wchodzącymi w zakres różnych pojęć. Teorie pojęć, obecnie można wyodrębnić ich dwie grupy: a) teorie odwołujące się do zasady podobieństwa, czyli przetwarzania „z dołu do góry” b) b) teorie ujmujące pojęcia jako elementy struktury wiedzy, pojęcia interpretowane są jako miniteorie odnoszące się do pewnego wycinka rzeczywistości - przetwarzanie „z góry do dołu” Teorie podobieństwa, Tversky definiuje podobieństwo na podstawie liczby cech wspólnych charakteryzujących pewną grupę obiektów oraz liczby cech różnicujących obiekty. Każda cecha decydująca o podobieństwie lub o różnicach jest ważona ze względu na swoją wyrazistość lub ważność. To czyni model bardziej precyzyjnym.
Pogląd klasyczny - wg niego pojęcie jest taką reprezentacją klasy, która obejmuje wszystkie jej istotne właściwości. Kryterium istotności jest powtarzalność, granice pojęcia są ostre. Stabilność charakteryzuje pojęcia zarówno w wymiarze wewnątrzjednostkowym, jak i w wymiarze międzyjednostkowym; kiedy człowiek przyswoi pojęcie, będzie je rozumiał zawsze tak samo. Kiedy dwóch ludzi posługuje się pewnym pojęciem oznacza to, że mają dokładnie to samo na myśli. Podstawą komunikacji jest uznanie wzajemności perspektywy poznawczych, co możemy wyrazić za pomocą zwrotu: „ja wiem, że Ty wiesz, że ja wiem” Andrzej Lewicki wyodrębnił dwa podprocesy: abstrakcję pozytywną i abstrakcję negatywną. Ta pierwsza polega na pomijaniu cech nieistotnych i wyodrębnianiu cech istotnych spośród pozostałych cech. Abstrakcja negatywna to powiązania niektórych cech zbioru desygnatów, które nie wchodzą w skład pojęcia. Lewicki za wskaźnik utworzenia pojęcia uznał reakcję wybiórczo - ogólną. Została ona zdefiniowana tak: „wybiórczość takiej reakcji polega na tym, że osoba odpowiada nią tylko na takie przedmioty, które posiadają określoną właściwość, ogólność zaś, że odpowiada nią na wszystkie przedmioty, którym ta właściwość przysługuje. ” Eksperymenty Lewickiego wykazały, że szybkość uczenia się pojęć zależy od liczby istotnych i nieistotnych cech.
Dwa aspekty pojęcia, wyróżnione przez Millera i Johnsona - Lairda, oraz przez Smitha i Medina. Wyodrębnili istotę pojęcia i procedurę identyfikacyjną. Istotą pojęcia jest zbiór jego abstrakcyjnych właściwości, pozwalających na określenie relacji danego pojęcia wobec innych pojęć. Z kolei procedura identyfikacyjna zawiera te cechy, które pozwalają na zaliczenie pewnego obiektu do jakiejś klasy. Czasem istota pojęcia i procedura identyfikacyjna pokrywają się ze sobą. Tak jest np. w przypadku pojęcia figury geometrycznej. Istota pojęcia traktowana jest jako coś pierwotnego w stosunku do procedury identyfikacyjnej - cechy abstrakcyjne zawarte w istocie determinują cechy obserwowalne. Efekt zagnieżdżenia: pojęcia podrzędne stanowią pewien podzbiór w pojęciach nadrzędnych. Cechy charakteryzujące pojęcia podrzędne zawierają cechy charakterystyczne dla pojęcia nadrzędnego oraz cechy typowe dla tego niższego poziomu hierarchii pojęciowej. Efekty zagnieżdżenia dowodzą, że kategorie mają strukturę hierarchiczną. Struktura ta występuje jednak tylko w wypadku pojęć wykorzystywanych przez ludzi w życiu codziennym; pojęcia „laboratoryjne” jej nie mają.
Zalety poglądu klasycznego: a) możliwość określenia ostrych granic pojęcia b)łatwe określanie relacji między pojęciami c) możliwość przekazywania wiedzy werbalnie Wady: a) utożsamienie pojęć z atrybutami percepcyjnymi b) pogląd klasyczny nie potrafi wyjaśnić efektu typowości, to jest faktu, że niektóre egzemplarze, formalnie należące do zakresu pojęcia, są traktowane jako lepsi przedstawiciele tego pojęcia, w porównaniu z innymi. c) nie dostrzegano tego, że w potocznym funkcjonowaniu poznawczym ludzie rzadko posługują się pojęciami o ostrych granicach
Pogląd probabilistyczny - punktem wyjścia dla zwolenników tego poglądu była konstatacja filozofów, że pojęcia mają nieostre granice i że trudno podać ich cechy definicyjne. Pogląd ten zalicza się do grupy teorii podobieństwa, zgodnie z zasadą podobieństwa rodzinnego: co najmniej jeden element, a prawdopodobnie kilka z nich, ma jedną lub więcej cech wspólnych z innymi elementami, lecz żadna z tych cech nie jest wspólna dla wszystkich elementów. Wynika z tego, że wprawdzie nie istnieje możliwość określenia reprezentacji poprzez podanie zbioru cech istotnych, ale reprezentacja ta jednak istnieje. Pogląd probabilistyczny przyjmuje, że poszczególne egzemplarze są zaliczane do zakresu pojęcia jedynie z pewnym prawdopodobieństwem. Rosch i Mervis starały się stwierdzić, na jakiej podstawie poszczególne egzemplarze są zaliczane do zakresu pojęcia. Rosch twierdzi, że kluczowe znaczenie odgrywają tu prototypy. Prototypem jest najbardziej typowy przedstawiciel danej kategorii. Prototyp nie musi być rzeczywistym obiektem, ale może być „bytem umysłowym”.
Znaczenie efektu typowości: pewne egz. są traktowane jako bardziej typowe niż inne. Z efektem typowości są skorelowane liczne zależności, im bardziej typowy jest dany obiekt, tym wcześniej będzie on wymieniany jako pierwszy przedstawiciel danej kategorii. Będzie się on cechował większą dostępnością pamięciową. Im bardziej typowy obiekt tym szybsza decyzja semantyczna. Smith, Shoben i Rips: na reprezentację pojęciową składają się dwa rodzaje cech: cechy definicyjne i charakterystyczne. cechy charakterystyczne przysługują egzemplarzom najbardziej typowym. Decyzje podejmujemy najpierw w oparciu o cechy charakterystyczne, jeśli je znajdziemy w przykładzie, to proces podejmowania decyzji się kończy. Jeśli nie - w uruchamiamy etap, w którym sprawdzane są cechy definicyjne. Ostatnio pojawiła się koncepcja, że prototypy nie muszą przyjmować wartości centralnych charakterystycznych dla danej kategorii, ale mogą stanowić przypadki idealne. Bardzo dużą rolę w tym, co zostanie określone jako prototyp odgrywa znajomość danej dziedziny - osoby posiadające dużą wiedzę, częściej posługują się egzemplarzami idealnymi niż średnimi.
Zalety poglądu probabilistycznego: a) koncepcja ta pokazała, że ludzie potrafią posługiwać się kategoriami w sposób konsekwentny, choć nie są w stanie podać kryteriów na jakich się opierają b) pogląd ten zwrócił uwagę na kategorie naturalne, które stanowią odzwierciedlenie uporządkowanej natury spostrzeganego świata. Poszczególne cechy nie występują w kombinacjach losowych, jak to się zdarzało w wypadku niektórych pojęć sztucznych, ale mogą być ze sobą skorelowane. Jak wskazują analizy Gibsona i Neissera, jesteśmy już wstępnie zaprogramowani do wykrywania porządku już na poziomie percepcyjnym, a tym bardziej na poziomie pojęciowym. Wady: a) trudno wyjaśnić pojęcia złożone; na podst. prototypowości pojęć prostych nie można przewidzieć prototypowości pojęć złożonych b) reprezentacje oparte na prototypach wykazują silną zależność od kontekstu c) nie wiadomo kiedy prototypy stanowią tendencję centralną w danej kategorii, a kiedy przypadek idealny dla danej kategorii d) Lakoff traktuje prototypy jako przejaw prawidłowości w funkcjonowaniu ludzkiego umysłu, które nie muszą wiązać się z pojęciami; prototypowość może być też związana z ładunkiem emocjonalnym
Pogląd egzemplarzowy - zgodnie z tym modelem, ludzie nie tworzą reprezentacji, posługując się procesami abstrakcji lub procesami formowania prototypów, ale pojedyncze napotkane egz. traktują jako reprezentację kategorii. Nowe egzemplarze są klasyfikowane na podst. podobieństwa do egz. poznanych wcześniej. Pogląd ten występuje w dwóch odmianach: wersji skrajnej, kiedy każdy przypadek traktowany jest jako pojęcie, oraz wersji umiarkowanej, kiedy odwołujemy się do reguły podobieństwa rodzinnego, występującego w specyficznej próbce egzemplarzy. Twórcy tej koncepcji przyjmują, że abstrakcja występuje nie tyle w fazie uczenia się pojęcia, ile w trakcie posługiwania się nim. Lee Brooks twierdził, że proces przyswajania pojęć ma charakter nieanalityczny i globalny. Badania empiryczne dostarczyły silnych argumentów potwierdzających pogląd egzemplarzowy. Koncepcja ta przyjmuje, że najpierw informacja o egzemplarzu lub grupie egz. jest zapisywana w pamięci, a dopiero później informacje zawarte w rejestrze pamięciowym służą jako podstawa kategoryzacji. Prototyp jako egz. centralny w danej kategorii, jest najbardziej podobny do wszystkich pozostałych egzemplarzy w tej kategorii.
Reprezentacja w postaci egz. przechowuje więcej informacji aniżeli prototypy. Jest to zarazem siła i słabość tego modelu. Zalety podejścia egzemplarzowego: a) podejmowanie decyzji przebiega szybko b) pogląd ten pozwala na lepsze przewidywanie c) zachowują stosunkowo dużo informacji dotyczących jakiegoś egzemplarza, (brytyjski i amerykański system prawny wykorzystuje podejście egzemplarzowe - precedensy) d) zachowanie znacznej liczby informacji na temat egzemplarza lub grupy egzemplarzy pozwala na wychwytywanie korelacji Wady: a) ignorowanie zdolności człowieka do abstrahowania oraz innych złożonych procesów poznawczych b) koncepcja ta dopuszcza, że dowolne cechy mogą być podstawą do wykrycia podobieństwa Zwolennicy podejścia egzemplarzowego podkreślali, że pojęcia nie są izolowanymi reprezentacjami, lecz są pochodne wzgl. systemu wiedzy jednostki.
Pojęcia jako teorie naiwne: W wiedzy potocznej podobieństwo może być wykorzystywane jako podstawa budowania teorii. Frazer wymienia dwie zasady, jakimi posługują się ludzie w tworzeniu teorii potocznych. Pierwsza to zasada homeopatii, albo zasada magii sympatycznej, głosi ona, że „podobne wywołuje podobne”, że istnieje zasadnicze podobieństwo między przyczyną a skutkiem. Druga zasada, to zasada „zarażenia”, zgodnie z nią musi zachodzić bezpośredni kontakt między przyczyną a skutkiem, ponadto ścisłe następstwo czasowe.
5. Pamięć i uczenie się Trochę historii: -G. Miller - o pojemności pamięci krótkotrwałej - Broadbent - postulat pamięci ultrakrótkiej - Hebb - rozwijał idee W. Jamesa dotyczące pamięci pierwotnej i wtórnej - Tulving - rozróżnienie pamięci semantycznej i epizodycznej Pamięć może być traktowana jako pewna zdolność, którą w różnym stopniu odznaczają się różni ludzie, jak i jako proces, który ma pewne uniwersalne właściwości, analogiczne u różnych ludzi. Pamięć nie jest procesem wyłącznie reproduktywnym, który można przeciwstawiać np. produktywnemu myśleniu. Przypadki w których pamięć ma charakter wyłącznie reproduktywny są b. rzadkie. Trzy metafory pamięci: -metafora magnetofonowa -pamięć jako urządzenie zbliżone do kamery wideo -poszukuje analogii w pamięci komputerowej
Pierwszy system pozwalający na wyodrębnienie różnych rodzajów pamięci pojawił się w tak zwanym modelu magazynowym. Kryterium podziału był czas przechowywania informacji. Idea, że pamięć jest jednolitym procesem, ale w trakcie rozwoju ewolucyjnego pojawiły się różne jej formy, dostosowane do wyzwań adaptacyjnych była rozwijana przez Tulvinga. Uważał on również, że trzy wyróżnione przez niego formy pamięci - pamięć proceduralna, semantyczna i epizodyczna pojawiają się w tej właśnie kolejności w toku rozwoju indywidualnego. Najwcześniejsza pamięć - proceduralna może być traktowana jako zbiór nawyków umożliwiających wykonywanie różnych czynności. Ten system pamięciowy jest nieświadomy, reakcje przezeń kierowane mają sztywny przebieg i mogą być wyzwalane przez specyficzne bodźce. Później pojawia się pamięć semantyczna, którą można scharakteryzować jako formę wiedzy szkolnej. Organizacja tych zapisów cechuje się dużą elastycznością, w miarę upływu czasu może być modyfikowana.
Najpóźniej w rozwoju gatunkowym i indywidualnym pojawia się pamięć epizodyczna. To pamięć zdarzeń, które tym różnią się od faktów, że są rozciągnięte w czasie. Wymaga stosunkowo dużego wysiłku, pochłania także dużo czasu. Ważną jej cechą jest zależność od kontekstu. Pamięć ta ma także charakter autonoetyczny, oznacza to że jednostka zdaje sobie sprawę z tego, że to właśnie ona dysponuje takimi, a nie innymi informacjami i że może je przywoływać. „Wiem, że wiem”. Dużym walorem koncepcji Tulvinga jest zwrócenie uwagi na aspekt rozwojowy procesów pamięciowych - zarówno w kontekście rozwoju gatunkowego jak i indywidualnego. Klasyfikacja procesów pamięciowych Squire wyodrębnia pamięć deklaratywną i niedeklaratywną. Informacje zawarte w pamięci deklaratywnej mogą być przechowywane w postaci abstrakcyjnych lub konkretnych reprezentacji, możliwych do uświadomienia lub wywnioskowania. Dostęp do nich jest względnie niezależny od kontekstu.
Doświadczenia w pamięci niedeklaratywnej są przechowywane w postaci związków SR, czyli nawyków. Nawyki te mogą być bardzo proste, jak przyciskanie guzika, albo bardzo złożone. Owe nawyki mogą być uruchamiane w specyficznej sytuacji. Uruchamianie doświadczeń zapisanych w pamięci niedeklaratywnej przebiega w sposób automatyczny. Do posługiwania się pamięcią deklaratywną i niedeklaratywną wykorzystywane są odmienne mechanizmy mózgowe. Deklaratywna angażuje hipokamp oraz korę płatów czołowych i skroniowych, w przypadku pamięci niedeklaratywnej oprócz hipokampa uruchamiana jest kora motoryczna i móżdżek. Priming zwany też efektem poprzedzania polega na tym, że bodźce wcześniejsze wpływają na odbiór bodźców późniejszych. Może nie tylko wpływać na poznawcze przetwarzanie bodźca, lecz także na zmianę znaku afektywnego. Jest nie tylko pewną formą pamięci, ale pozwala także w ilościowy sposób określać podobieństwo różnych bodźców. Był wykorzystywany także jako technika weryfikacji twierdzeń wyprowadzonych z teorii geonów. Priming wizualny możliwy jest tylko wtedy, gdy obrazki obu przedmiotów są eksponowane przez krótki czas, a odstęp między ekspozycjami jest również bardzo krótki. Natomiast przy dłuższych przerwach pomiędzy bodźcami możliwy jest priming pojęciowy.
Pamięć a warunkowanie. a) warunkowanie klasyczne (Pawłow), także eksperyment Watsona i Raynier na małym. Albercie. b) warunkowanie instrumentalne (badania Thorndike’a ze skrzynką problemową dlaszczurów), generalizacja i różnicowanie Habituacja: zmniejszenie wrażliwości, bodźce zapachowe łatwo ulegają habituacji Sensytyzacja: zwiększenie wrażliwości, np u dentysty - jeśli podczas zabiegu czuliśmy ból, to następne bodźce będziemy odczuwać jako silniejsze Fazy procesu pamięciowego Tradycyjnie wyróżnia się trzy fazy: kodowanie (dawniej zapamiętywanie), przechowywanie i wydobycie informacji. Proces kodowania nie jest natychmiastowy, informacje mogą być kodowane na różnych poziomach. Koncepcja Perry’ego dotycząca kodowania zdarzeń traumatycznych pokazuje, że im krótszy czas kodowania, tym niższe piętro OUN, na którym zapisana jest informacja - przy b. krótkich czasach może być zapisywana na poziomie pnia mózgu - wtedy oczywiście nie jest dostępna świadomości. przy czasach dłuższych – na poziomie śródmózgowia czy kory mózgowej. W ostatnim wypadku jest dostępna świadomości, ale czasami może nie zostać zintegrowana.
Koncepcja Tulvinga: Rozbił poszczególne fazy na mniejsze jednostki i w efekcie uzyskał 9 faz. Wprowadził koncepcję rekodowania, uznał że w codziennym działaniu pamięci nowe informacje, jakie do nas docierają, są łączone z informacjami, które już wcześniej znajdowały się w pamięci. Często jednostka sama musi dostrzec związki nowych informacji z dotychczasową wiedzą. Od dostrzeżenia takich związków zależy to, czy dana informacja zostanie zapisana w sposób trwały czy też nie. Tulving zwrócił uwagę, że proces przywoływania informacji polega na poszukiwaniu najlepszego dopasowania między informacjami znajdującymi się w pamięci, a informacjami zawartymi w pytaniu kierowanym do pamięci. Samo formułowanie pytania może sprawiać, że wyszukanie tej samej informacji będzie albo bardzo łatwe albo trudne. Tulving odróżnia informacje, które znalazły się w pamięci świadomej, od informacji, które są ujawniane w zachowaniu. Sięga tu do kwestii związanych z praktycznym wykorzystywaniem pamięci. Koncepcja Tulvinga wskazuje, że klasyczne metafory pamięci - czy to metafora magnetofonowa, czy wideo - są całkowicie nietrafne.
Procesy kodowania informacji: Konsolidacja polega na utrwaleniu zapamiętywanych informacji. Proces ten – zdaniem Hebba - ma charakter fizjologiczny i podlega zmianie śladu pamięci krótkotrwałej w ślad pamięci trwałej. Ślad pamięciowy po skonsolidowaniu staje się odporny na rozmaite czynniki zakłócające. Za główny czynnik sprzyjający zapamiętywaniu już od starożytności uznaje się powtórki. Wykorzystywanie powtórek jest mechanicznym sposobem posługiwania się pamięcią. Liczba powtórek potrzebnych na opanowanie jednego elementu szeregu jest coraz większa, w miarę jak szereg staje się coraz dłuższy. Informacje całkowicie zgodne z dotychczasową wiedzą są całkowicie ignorowane przez system pamięciowy - zasada ekonomii poznawczej zapobiega wielokrotnemu zapamiętywaniu tych samych informacji. Z kolei informacje całkowicie niezgodne z dotychczasową wiedzą mogą być odrzucane, ponieważ ich zapamiętanie mogłoby wywołać dysonans poznawczy. Pamięć operacyjna: Zwana też pamięcią roboczą, stanowi podsystem pamięci krótkotrwałej. Pierwsza praca dot. tej pamięci została opublikowana przez Baddleya i Hitcha. Baddley porównuje pamięć roboczą do wieży kontrolnej.
Pamięć robocza pełni 4 podstawowe funkcje: 1. przechowywania informacji 2. przetwarzania informacji (realizowana przez aktywną część pamięci) 3. nadzorowania (dzięki której można sprawdzać co się dzieje z informacjami pamięciowymi) 4. integracyjną (wykonywanie kilku zadań pamięciowych równocześnie, a także racjonalne dzielenie posiadanych zasobów) Jedynie pierwsza pełni funkcję typowo pamięciową - pozostałe częściowo są pamięciowe, częściowo należące do uwagi. Dwie koncepcje pamięci operacyjnej: 1. koncepcja opracowana przez Nelsona Cowana traktuje pamięć operacyjną jako zaktywizowaną część pamięci trwałej. Cowan traktuje swój model jako jednolity, o tym jakie informacje z trwałych zasobów zostaną zaktywizowane decydują zarówno czynniki sytuacyjne (np nowość pewnych informacji, które jako nieznane jednostce są przetwarzane dużo dokładniej, w przeciwieństwie do starych ulegających habituacji), jak i regulacja o charakterze wolicjonalnym 2. wielokomponentowy model Baddleya - sercem i aktywnym elementem pamięci operacyjnej jest centralny system wykonawczy. Obok niego działają dwa systemy niewolnicze, będące niejako na usługach centralnego systemu wykonawczego, oraz trzecia część która ma charakter ambiwalentny. Systemy niewolnicze to pętla fonologiczna oraz szkicownik wzrokowo - przestrzenny. Trzeci system – bufor epizodyczny - jest odpowiedzialny nie tylko za przechowywanie informacji na temat zdarzeń, ale też integruje ze sobą informacje wzrokowe i słuchowe.
Pamięć trwała: Informacje zawarte w pamięci trwałej są przechowywane przez bardzo długi czas. Pamięć ta jest bardzo zróżnicowana pod względem mechanizmów przechowywania informacji, a także sposobów kodowania informacji w porównaniu z pamięcią krótkotrwałą. Csikszentmihalyi twierdzi, że w ciągu życia człowiek przetwarza 185 miliardów informacji. O dużej trwałości informacji przechowywanych w pamięci trwałelj świadczy seria badań przeprowadzonych przez Bahricka (badanie dot. odpamiętywania nazwisk i twarzy kolegów szkolnych po 25 i 50 latach). Bhrick na podstawie zebranych przez siebie informacji wymyślił nowe określenie: magazyn pamięci stałej. Warunki dobrego funkcjonowania pamięci trwałej: a) sposób zapisywania materiału powinien być bardzo ekonomiczny b)materiał zapisany w pamięci powinien być tak zorganizowany, by można było łatwo uzyskać do niego dostęp c) materiał ważny powinien być wielokrotnie zapisywany w magazynie pamięciowym. To wielokrotne zapisywanie przebiega po utracie owego materiału. d)materiał o szczególnym znaczeniu musi być zawsze pod ręką
Pamięć semantyczna: Jedna z pierwszych koncepcji trwałej pamięci semantycznej, zaproponowana przez Collinsa i Quilian zakłada że pamięć przypomina sieć semantyczną. Sieć semantyczna zorganizowana jest w hierarchiczny sposób. W jej skład wchodzą pojęcia (węzły sieci), które są uporządkowane za pomocą relacji zawierania lub relacji nadrzędności/podrzędności. Drugim elementem sieci są połączenia między węzłami. Mogą one określać przynależność do ogólniejszej kategorii. Drugi typ połączeń dotyczy związku danego pojęcia z cechami charakteryzującymi obiekty, które wchodzą w jego zakres. Model sieci semantycznej uzyskał potwierdzenie empiryczne. Collins i Loftus zaproponowali modyfikację modelu sieci sem. - zaproponowali model rozprzestrzeniającego się pobudzenia. Kontynuuje on ogólny pomysł, że pobudzenie jednego węzła w sieci powoduje pojawienie się pobudzenia wśród węzłów sąsiednich. Im bliżej położone są węzły sąsiednie, tym silniejsze będzie ich pobudzenie. Bliskość tę określa się na podstawie wielkości primingu.
Pamięć epizodyczna: Jest drugą obok pamięci semantycznej formą pamięci deklaratywnej. Jest pamięcią zdarzeń, przy czym wyodrębnioną część pamięci epizodycznej stanowi pamięć autobiograficzna. Reprezentacje zdarzeń przechowywane w pamięci epizodycznej winny odzwierciedlać następujące właściwości: a) uporządkowanie elementów składających się na zdarzenie w czasie b) relacje przyczynowo - skutkowe między elementami zdarzenia. Ważne jest nie tylko to, co następowało po czym, ale także to, co zostało wywołane przez co. c) charakter hierarchiczny: poszczególne zdarzenia łączą się ze sobą w struktury hierarchiczne. Koncepcje sieciowe wykorzystywane były również do opisu i wyjaśnienia pamięci zdarzeń. Specyficzne właściwości pamięci epizodycznej, odróżniające ją od pamięci semantycznej - przywoływanie pewnych faktów z pamięci semantycznej nie zmienia w zasadniczy sposób jej zawartości. Przypominanie sobie zdarzeń z pamięci epizodycznej może aktywizować wspomnienia innych zdarzeń, które skądinąd były bardzo trudno dostępne.
Tulving podkreśla, że pamięć semantyczna i epizodyczna wiążą się z aktywnością odmiennych okolic mózgu. Sformuował koncepcję asymetrii procesów kodowania i wydobywania z pamięci semantycznej i epizodycznej (określana akronimem HERA - Hemispheric Encoding/Retrieval Asymmetry). Zgodnie z tą koncepcją obie półkule mózgu są asymetrycznie aktywizowane podczas kodowania i wydobywania informacji z obu rodzajów pamięci. W trakcie kodowania w pamięci epizodycznej silniej aktywizowana jest lewa kora przedczołowa, natomiast przy wydobywaniu z niej pamięci - prawa kora przedczołowa. Odwrotna sytuacja występuje w przypadku pamięci semantycznej. Pamięć autobiograficzna: Najogólniej mówiąc jest to pamięć indywidualnej przeszłości danej jednostki. Nie jest ona jednolita, nie wszystkie składające się na nią dane są świadome. Zawiera zarówno elementy semantyczne jak i epizodyczne. Można wyróżnić dwa typy błędów w pamięci zdarzeń: pominięcia (czyli utrata kolejnych informacji wraz z upływem czasu) oraz zniekształcenia (osoba przypomina sobie zdarzenia lub ich elementy, które w istocie nie miały miejsca, a zatem dodaje coś do oryginału lub zmienia jego fragmenty).
Wyodrębnienie głównych elementów pamięci autobiograficznej zawdzięczamy Conwayowi oraz Pleydell - Pearce’owi. Stwiedzili oni, że należy odróżnić od siebie „bazę danych autobiograficznych” oraz wspomnienia autobiograficzne. „Baza danych” zawiera informacje uporządkowane hierarchicznie ze wzgl. na poziom ogólności oraz ze względu na to, jaki zakres czasowy obejmują. Wspomnienia autobiograficzne konstruowane są z informacji zapisanych w trzech podstawowych „bazach danych autobiograficznych”: 1. bazy obejmującej informacje zapisane w odniesieniu do okresów życia, takich jak okres nauki szkolnej; oddzielone są od siebie mniej lub bardziej ostro, a u rozmaitych ludzi mogą obejmować nieco inny zbiór zdarzeń 2. bazy obejmującej informacje dotyczące zdarzeń ogólnych, takich zdarzeń, które stosunkowo często powtarzały się w życiu i zwykle miały podobny przebieg, np. egzaminy, imprezy towarzyskie, zebrania w pracy, etc. Zapisane są one w postaci schematów 3. bazy obejmującej informacje na temat zdarzeń specyficznych. Tylko w tym wypadku zapisywane są informacje na temat konkretnego zdarzenia, ze wszystkimi szczegółami. Bardzo często owe „zdarzenia specyficzne” to różne „pierwsze razy”, człowiek nie dysponuje jeszcze wtedy żadnym schematem, w którym mógłby ulokować zapis danego zdarzenia. Sposób ten jest b. mało ekonomiczny, dlatego też dość rzadko stosowany.
Istnieje znaczna nieprzekładalność danych uzyskanych w kontrolowanych badaniach eksperymentalnych w relacji do zjawisk obserwowanych w pamięci autobiograficznej. Rzadko występuje tu zjawisko „mam to na końcu języka”. Gdy przywołujemy informacje pochodzące z pamięci autobiograficznej, stosunkowo rzadko musimy odtwarzać dosłowny zapis jakiegoś doświadczenia. O tym, jakie elementy znajdą się w określonym wspomnieniu decyduje wiele czynników, związanych nie tylko z właściwościami materiału pamięciowego, ale także właściwościami jednostki (np. tendencja do ujawniania się przed innymi czy inteligencja werbalna) Koriat i Goldsmith mówią o strategicznych procesach kontroli wyjścia. To samo zdarzenie z osobistej przeszłości może stać się źródłem bardzo różnych wspomnień autobiograficznych i za każdym razem wspomnienia te mogą być tworzone w dobrej wierze. Zdarzenia uznawane za ważne są łatwiej przywoływane z pamięci, aczkolwiek zależność ta nie jest tak silna, jak początkowo przypuszczano. Psychologowie społeczni zwracają uwagę na to, że ludzie za ważne uznają komunikaty, które zostały wyróżnione przez media. Drugie zjawisko decydujące o łatwości kodowania, a przede wszystkim o łatwości odtwarzania wiąże się ze znakiem emocjonalnym zdarzeń z przeszłości. Ludzie z reguły przypominają sobie znacznie więcej zdarzeń pozytywnych (60% przywoływanych zdarzeń to pozytywne, 20 -30% negatywne, a 10 -20% to zdarzenia neutralne). Uwagę wielu badaczy przykuły trzy zjawiska: amnezja dziecięca, efekt świeżości oraz efekt reminiscencji.
Amnezja dziecięca: badania Sheingold i Teeney przeprowadzili badania na ten temat. Opracowały kwestionariusz zawierający pytania o to, co działo się wtedy, gdy w domu pojawiło się młodsze dziecko, jak było ubrane po powrocie ze szpitala, etc. Badania pokazały, że dzieci potrafią określić okoliczności pojawienia się rodzeństwa, kiedy mają ok. 3 lat. Wadą badania było, że nie kontrolowano źródła wspomnień. Pod kierunkiem Maruszewskiego powtórzono te badania, wprowadzając wskaźniki pozwalające odróżnić wspomnienia własne od tych pochodzących z innych źródeł. Okazało się, że granica amnezji nie jest stała. Usher i Neisser pokazali, że granica amnezji dla takich wspomnień jak narodziny rodzeństwa czy pobyt w szpitalu jest niższa aniżeli dla takich jak śmierć bliskiej osoby albo przeprowadzka. Granice amnezji mogą się zatem zmieniać w zależności od charakteru zdarzenia. Liczne traumy w dzieciństwie prowadzą do wzrostu rozmiarów okresu życia objętego amnezją. Ofiary traumy np przywoływały wspomnienia z okresu, kiedy miały nieco ponad 6 lat. Efekt względnej świeżości: gros naszych wspomnień to wspomnienia z ostatniego roku. Informacje nt ostatniego roku w trakcie swobodnego przypominania stanowią od 1/3 do 2/3 wszystkich wspomnień. Badania Crowitza i Shiffmana i Rubina pokazały, że w okresach pięcioletnich spadek liczby wspomnień ma charakter monotoniczny – w każdym kolejnym okresie ludzie zapominali w przybliżeniu tą samą ilość informacji. Większa dostępność informacji z niedalekiej przeszłości wiązać się może z koniecznością ich wykorzystywania w procesie adaptacji społecznej
Efekt reminiscencji: po przekroczeniu 50. roku życia ilość wspomnień dotyczących okresu między 10. a 30. rokiem życia znacznie się zwiększa. Są bardzo żywe i niejednokrotnie pojawiają się w sposób mimowolny. Pierwsze badania w których wykryto ten efekt przeprowadzili Franklin i Holding, ale systematycznie ten efekt został opisany przez Rubina. Efekt reminiscencji jest niezgodny z przebiegiem krzywej zapominania Ebbinghausa. Krzywa ta ma przebieg asymptotyczny - bezpośrednio po opanowaniu jakiegoś materiału jest on bardzo szybko zapominany. Potem, w miarę upływu czasu, zapominanie jest coraz wolniejsze. Bernstein i Rubin stwierdzili, że za powstawanie reminiscencji odpowiedzialne są wspomnienia zdarzeń pozytywnych - dla ludzi w okresie późnej dorosłości oraz w wieku podeszłym okres między 10. a 30. rokiem życia jest najszczęśliwszy, dodatkowo jest okresem maksymalnych zmian (wiele rzeczy robi po raz pierwszy, a w związku z tym zapisy pamięciowe dot. takich zdarzeń winny cechować się wysoką wyrazistością).
6. Uwaga i kontrola poznawcza Uwaga odpowiada za redukcję nadmiaru informacji. Redukcja ta dokonuje się przede wszystkim na wejściu sensorycznym. Wg klasycznej definicji Williama Jamesa: Uwaga jest objęciem w posiadanie umysłu, w czystej i żywej postaci, jednego z - jak się wydaje wielu obiektów lub biegów myśli, możliwych do objęcia w tym samym czasie. Oznacza wycofanie się z pewnych rzeczy, w celu skutecznego radzenia sobie z innymi. Pole uwagi jest szersze od pola świadomości, zatem możliwe jest „zwracanie uwagi” na bodźce, z których istnienia nie całkiem zdajemy sobie sprawę. Trzeba odróżnić świadomość introspekcyjną od percepcyjnej. Pierwsza polega na zdawaniu sobie sprawy z własnych procesów psychicznych. Druga polega na zdawaniu sobie sprawy z tego, co dzieje się w otoczeniu (także własnym ciele). Można mówić także o różnych stopniach natężenia świadomości percepcyjnej. Uwadze intensywnej towarzyszy wyostrzona świadomość treści wchodzących w jej pole. Z kolei dla uwagi ekstensywnej charakterystyczne jest osłabienie świadomości tego, co znajduje się w jej polu.
Selekcja źródła informacji: selektywność to zdolność wyboru jednego bodźca, źródła stymulacji lub ciągu myśli, kosztem innych. Np. efekt Cocktail party. Selektywność uwagi można obserwować także na przykładzie zadania Stroopa (które uchodzi nie tylko za miarę selektywności poznawczej, ale także za wskaźnik siły kontroli poznawczej). Przeszukiwanie pola percepcyjnego: polega na aktywnym, systematycznym badaniu pola percepcyjnego w celu wykrycia obiektów spełniających założone kryterium. Podstawowym czynnikiem utrudniającym jest obecność bodźców zakłócających, czyli dystraktorów. Jeśli zbiór dystraktorów jest różnorodny, przeszukiwanie bywa trudne, jeśli jednorodny - łatwiejsze. Jeśli obiekt jest prosty - łatwiejsze, jeśli składa się z wielu cech - trudniejsze. Pojedyncze cechy obiektów spostrzegamy automatycznie i przeduwagowo, natomiast ich integracja w złożony obiekt jest czynnością wymagającą wysiłku i czasu. Przedłużona koncentracja: to zdolność długotrwałego oczekiwania na pojawienie się ściśle określonego bodźca, zwanego sygnałem, a ignorowania pozostałych bodźców, zwanych szumem. Czujność uwagi decyduje o kompetencji społecznej człowieka, można ją też opisać w języku teorii detekcji sygnałów (trafienie/prawidłowe odrzucenie/fałszywy alarm/ominięcie)
Kontrola czynności jednoczesnych: jednoczesne wykonywanie kilku czynności nie pociąga za sobą negatywnych skutków, ponieważ czynności są dość proste albo dobrze zautomatyzowane. Problem pojawia się gdy przynajmniej jedna z jednoczesnych czynności jest bardziej wymagająca. Czynności wykonywane w tym samym czasie, nawet jeśli nie powodują spadku poprawności wykonania, zwykle spowalniają się wzajemnie. Zjawisko to zwane jest psychologicznym okresem refrakcji. Sugeruje ono, że kontrola czynności jednoczesnych polega w dużej mierze na przetwarzaniu szeregowym, a nie równoległym. Przerzutność uwagi: badania zapoczątkował Jersild. Współcześnie prowadzi się je pod hasłem „przełączania między zadaniami”. Miarą kosztów przełączania jest różnica czasu reakcji między warunkami wymagającymi zmiany zadania. a warunkiem powtórzenia. Jeśli są one wiarygodne i podane odpowiednio wcześnie, znacząco redukują koszty przełączania. Różnica czasu między serią mieszaną a heterogeniczną odzwierciedla tzw. globalne koszty przełączania, wynikające z samej konieczności nieustannego przerzucania uwagi z jednego obiektu na drugi. Różnica czasu między warunkiem wymagającym zmiany a warunkiem z powtórzeniem odzwierciedla tzw. koszty lokalne.
Teorie uwagi: Teorie wczesnej selekcji: zakładają, że przyjęcie informacji ważnej, a odrzucenie zbędnej dokonuje się na wczesnych etapach przetwarzania informacji. Broadbent prowadził swoje badania przy użyciu tzw. techniki podążania (Cherry). Pierwotnie Cherry twierdził, że do kanału ignorowanego nie dociera prawie nic. Dociera np to, że głos w kanale jest męski czy żeński, czy przekaz jest w języku ojczystym, czy obcym. Odkrycie to przyniosło wnioski, że samą tylko siłą uwagi można doprowadzić do tego, że pewna część przekazu stymulacji zewn. , wybrana zresztą arbitralnie, przestanie działać na organizm jako bodziec. Późniejsze badania wykazały jednak, że uwaga „przepuszcza” pewne informacje z kanału ignorowanego, przede wszystkim imię osoby badanej. Z kanału ign. dociera także informacja o zmianie tonu głosu, płci rozmówcy i nadzwyczajnym natężeniu intensywności przekazu (Cherry). O przepuszczeniu jakiejś informacji nie decyduje jej znaczenie, lecz cechy fizyczne. Broadbent stworzył teorię filtra uwagi. Można go symbolicznie przedstawić w dużej literze Y. Górne ramiona odpowiadają dwóm kanałom stymulacji sensorycznej, np. prawemu i lewemu uchu. Autor uważa je za sensoryczne „poczekalnie” dla bodźców przed ich wpuszczeniem na wyższe, semantyczne piętra obróbki. W systemie przetwarzania informacji znajduje się „wąskie gardło”. Gray i Wadderburn zmodyfikowali technikę podążania w ten sposób, że zamiast dwóch różnych tekstów prezentowali dwa ciągi bodźców, składające się z cyfr bądź słów. Osoby badane bez problemu przełączały się z jednego kanału na drugi, odbierając spójny komunikat. Wyniki tego eksperymentu podważyły trafność modelu wczesnej selekcji informacji, opartej na
Teorie późnej selekcji zakładają, że wybór i odrzucenie informacji przez mechanizm uwagi dokonują się na późnych etapach przetwarzania. Głównym kryterium selekcji mają być zatem semantyczne, a nie sensoryczne aspekty stymulacji. Najbardziej znaną autorką teorii późnej selekcji jest Treisman. Sformułowała hipotezę „osłabiacza” - informacje nieważne, nieistotne lub nie spełniające kryteriów selekcji są osłabiane na wczesnym etapie przetwarzania, ale nie są blokowane i bezpowrotnie odrzucane. Osłabione przechodzą do dalszych etapów przetwarzania i mogą być wykorzystane nawet na najwyższym piętrze, jeśli okaże się to konieczne. Zgodnie z jej modelem „osłabicza”, selektywny odbiór informacji dokonuje się na 3 etapach: 1. odbieramy i analizujemy bodźce ze wzgl. na ich właściwości fizykalne 2. analizujemy informacje ze wzgl. na charakterystyczne wzorce percepcyjne, np. sekwencja ludzkiej mowy czy muzyki 3. skupiamy świadomą uwagę na informacjach, które dotarły do tego piętra. Na tym etapie system uwagi działa szeregowo, a jego pojemność jest stosunkowo mała. Model zaproponowany przez Deutschów jest bardziej radykalny. Ich zdaniem wszystkie informacje przechodzą przez etap analizy sensorycznej i percepcyjnej w oryginalnej postaci. Żaden filtr ani osłabiacz nie eliminuje bogactwa informacji, aż do momentu, gdy informacje te mają być przekazane do pamięci krótkotrwałej. Filtr uwagi działa zatem na możliwie najpóźniejszym etapie, tuż przed świadomą obróbką informacji przez system pamięci roboczej.
Teorie podzielności uwagi odpowiadają na pytanie, jak jest możliwe nadzorowanie więcej niż jednej czynności w tym samym czasie. Teoria modułów narodziła się pod wpływem eksperymentu Allporta i Reynoldsa. Autorzy powtarzali komunikat werbalny, prezentując go do jednego ucha. Do drugiego podawano pojedyncze słowa. Okazało się, że badani nie byli w stanie rozpoznać słów podawanych do kanału ign. Kiedy jednak słowa „nieistotne” prezentowano wizualnie, badani rozpoznawali je w stopniu wykluczającym przypadek. Gdy zamiast słów prezentowano w kanale ignorowanym obrazki, badani rozpoznawali je w 90%. Wniosek: uwaga działa poprzez niezależne kanały sensoryczne, z których każdy zaopatrzony jest w osobny filtr. Jeśli dwie czynności obsługiwane są przez różne kanały, można je nadzorować w tym samym czasie bez widocznych kosztów, czyli bez obniżenia poprawności i bez spowolnienia procesów poznawczych. Mc. Leod wykazał, że poziom błędów związanych z wykonywaniem dwóch czynności znacząco wzrasta, gdy jedna z nich wymaga reagowania prawą ręką, a druga - lewą. Kiedy natomiast jedna czynność wymaga reagowania manualnego, a druga - werbalnego, poziom wykonania znacznie się poprawia. Wobec tych danych Allport zmodyfikował swoją teorię. Zamiast niezależnych kanałów sensorycznych postuluje istnienie niezależnych modułów przetwarzania informacji. Uwaga jest systemem niezależnych, wyspecjalizowanych modułów przetwarzania danych, obejmujących nie tylko selekcję bodźców, lecz też kontrolę reakcji wykonawczych.
Teoria zasobów rozwinięta przez Kahnemana - rozwinął technikę podwójnego zadania, polegającego na jednoczesnym wykonywaniu dwóch prostych czynności, z których jedna przyjmowała dwa poziomy trudności. Typowy wynik obserwowany w tego rodzaju eksperymentach polega na znaczącym wydłużeniu reakcji prostej wtedy, gdy czynność kategoryzowania wchodzi na wyższy poziom trudności. Autor potraktował zasoby uwagi jako coś niespecyficznego, niezależnego od rodzaju stymulacji, treści przetwarzanej informacji czy też rodzaju wymaganej reakcji motorycznej. Teoria zasobów krytykowana jest ze wzgl. na nieprecyzyjne określenie kryteriów, które decydują o tym, jak wiele zasobów potrzebuje dana czynność. Kontrola poznawcza Jest zdolnością umysłu do nadzorowania i regulowania własnych procesów poznawczych, a także do planowanego sterowania ich przebiegiem. Wg Chuderskiego przyjmuje ona 3 formy, które można nazwać monitorowaniem, regulacją i sterowaniem. Monitorowanie to raczej sprawdzanie przebiegu procesów pozn. bez aktywnej ingerencji w ów przebieg. Regulacja to reagowanie na błędy i zakłócenia w przebiegu procesów pozn. , a sterowanie to aktywne, zgodne z planem wpływanie na kierunek i sposób przebiegu procesów pozn. Najważniejsze badania w tym obszarze dot. automatyzacji i hamowania oraz funkcji zarządczych.
Czynności automatyczne i kontrolowane Podział na dwa typy czynności - automatyczne i kontrolowane - jest jednym z najważniejszych w psychologii. Czynności automatyczne powstają w wyniku długiego procesu nabywania wprawy. Po pewnym czasie czynność nie wymaga już świadomej kontroli, choć w pewnych warunkach może być wtórnie uświadomiona. Przyjmuje się, że czynności automatyczne wykonywane są równolegle, a kontrolowane - szeregowo. W konsekwencji czynności automatyczne są szybkie, a kontrolowane - wolne. Czynności kontrolowane są sterowane globalnie, to znaczy z zaangażowaniem całego systemu poznawczego, w szczególności ważnych centrów dyspozycyjnych, takich jak uwaga i pamięć robocza. Czynności automatyczne, sterowane przez struktury lokalne, nie angażują mechanizmów uwagi i pamięci albo też czynią to w minimalnym zakresie. Podział na czynności automatyczne i kontrolowane nie jest dychotomiczny ani ostry. Co więcej, czynności kontrolowane również nie są nadzorowane w całości na piętrze globalnym. Sprawne wykonywanie czynności dobrze zautomatyzowanych również do pewnego stopnia angażuje zasoby uwagi, musi więc wpływać na poziom wykonywania czynności wyższego rzędu, wykonywanych jednocześnie. Wpływ ten jest jednak odwrotnie proporcjonalny do poziomu wyuczenia czynności i oderwania jej od bezpośredniego nadzoru świadomych pięter systemu poznawczego.
Hamowanie i interferencja. Hamowanie jest mechanizmem kontrolnym, wspomagającym proces selekcji informacji. Jego funkcja polega na utrudnieniu dostępu do informacji nieistotnych ze wzgl. na aktualnie wykonywane zadanie, a także na powstrzymywaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub behawioralnej. Podstawowym zadaniem hamowania jest zatem blokowanie zewn. źródeł stymulacji, jak też pobudek wewn. Dzięki hamowaniu możliwe jest uniknięcie interferencji zasobowej - kiedy różne czynności rywalizują o te same zasoby poznawcze, wzajemnie sobie szkodząc. Obecnie kontrola interferencji jest traktowana jako jeden z możliwych rodzajów hamowania. Hamowanie przejawia się przede wszystkim w powstrzymywaniu się od dominującej reakcji. Gordon Logan badał to zjawisko, posługując się metodą zwaną “sygnał stopu” - badani byli tym szybciej zahamować wykonywaną czynność, im krótszy był interwał między wystąpieniem bodźca wzbudzającego wykonywaną czynność, a pojawieniem się sygnału stopu. Innym przejawem hamowania jest odporność na dystrakcję. Flankery (bodźce zakłócające) wydłużają czas reakcji na sygnał, gdy flankery są różne od sygnału, nie wydłuża się jednak, gdy flankerów nie ma, lub gdy są takie same jak sygnał. Zdaniem Eriksena i Eriksen efekt flankerów wynika z konieczności zahamowania reakcji na bodziec zakłócający. Hamowanie jest kosztowne, bo powoduje wydłużenie czasu reakcji w warunkach współwystępujących, dystrakcyjnych flankerów. Napięcie mięśniowe (subtelne) podczas badania może sugerować, że człowiek jest jakby „mięśniowo” przygotowany do reakcji, o której wie, iż jest niewskazana.
Mniej motoryczny charakter ma inny przejaw hamowania, nazwany tłumieniem dystrakcji. W eksperymentach Neilla wykorzystano zadanie Stroopa. Reakcja na uprzednio tłumiony aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy nie trzeba go było uprzednio odrzucać. Jeżeli bodźce uprzednio ignorowane stają się później istotnymi sygnałami, to wywołują spowolnienie mechanizmów selekcji informacji, co potwierdzili inni badacze. Funkcje zarządcze - pewna liczba sprawności związanych z planowaniem i kontrolą czynności. Od czasów Galla wyrażano przekonanie, że w przednich płatach czołowych mózgu są zlokalizowane funkcje kontrolne procesów przetwarzania informacji. Są one niespecyficzne, ponieważ ich bezpośrednim zadaniem nie jest realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji, np rozumowania. Ich upośledzenie natomiast zakłóca wykonywanie innych operacji poznawczych. Badaniem struktury funkcji zarządczych zajął się Akira Miyake. Udało mu się wykazać istnienie trzech odrębnych funkcji zarządczych, a konfirmacyjna analiza czynnikowa potwierdziła istnienie czynnika wyższego rzędu. Trzy funkcje wyróżnione przez Miyakiego i współpracowników to: 1. przerzutność - czyli przełączanie między zadaniami, procesami lub czynnościami umysłowymi; 2. hamowanie - niepożądanej reakcji, bodźców zakłócających lub narzucających się reprezentacji umysłowych; 3. odświeżanie informacji - w zakresie pamięci roboczej (updating)
7. Myślenie, rozumowanie i rozwiązywanie problemów Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów) w dłuższe ciągi. Reprezentacje poznawcze mogą być trwałe (pojęcia, sądy) lub nietrwałe (spostrzeżenia, wyobrażenia), ale zwane są strukturami poznawczymi a nie procesami. Podstawową funkcją myślenia jest zastępowanie jawnego zachowania. Dzięki myśleniu możliwe są też inne czynności poznawcze, np. rozumowanie i podejmowanie decyzji. Myślenie zawsze jest ukierunkowane na osiągnięcie celu. Podstawowy podział dot. procesów myślenia jest podziałem na myślenie realistyczne (ukierunkowane na cel) oraz autystyczne. To drugie nie jest przejawem zaburzenia, albowiem nieustannie występuje u każdego z nas. Polega na swobodnym kojarzeniu wyobrażeń, pojęć lub innych elementów poznawczej reprezentacji świata, jak to się dzieje w przypadku marzeń na jawie lub marzeń sennych. Z kolei myślenie realistyczne, czyli podporządkowane celowi można podzielić na reproduktywne i produktywne. Pierwsze polega na odtworzeniu wyniku, który jest dobrze znany lub powtarzalny, podczas gdy drugie prowadzi do wytworzenia nowej wiedzy. W potocznym rozumieniu myślenie uważa się za proces świadomy i całkowicie kontrolowany.
Zdaniem Tomasza Maruszewskiego mamy tu do czynienia z powszechnie występującym złudzeniemm. Świadomość odgrywa istotną rolę w myśleniu ponieważ bez uświadomienia sobie jego rezultatów nie moglibyśmy ocenić, czy osiągnęliśmy założony cel. Uświadomieniu ulegają więc efekty myślenia oraz niektóre operacje składające się na jego przebieg, podczas gdy cała “mechanika” myślenia może pozostać nieuświadomiona. Jeśli chodzi o kontrolę poznawczą, myślenie podlega jej tylko w pewnym stopniu, niekiedy całkowicie się spod niej uwalniając. Doskonałym przykładem osłabionej kontroli są myśli intruzywne. Struktura myślenia: operacje umysłowe to przekształcenia dokonywane na reprezentacjach umysłowych. Większość operacji (np kodowanie informacji, porównywanie) występuje nie tylko w myśleniu, lecz również w elementarnych procesach poznawczych, inne natomiast (np dokonywanie skojarzeń) występują tylko w procesach myślenia. Operacje specyficzne dla myślenia to działania symboliczne. Zdaniem Jeana Piageta operacje logiczne cechują się odwracalnością, tzn. każdej operacji odpowiada jej przeciwieństwo.
Algorytmy i heurystyki Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończoną sekwencję operacji, jaką należy wykonać, aby osiągnąć określony cel. Algorytm jest niezawodny, dobrze określony, ma charakter masowy, tzn. że można go z powodzeniem stosować dla każdego problemu danej klasy. Jest zestawem sztywnych reguł. Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą rozwiązywania problemów lub podejmowania decyzji. Ze swej natury jest więc zawodna i bardziej ryzykowna niż algorytm. Jedynie podpowiada jaką metodą być może warto do niego podchodzić. Heurystyka jest więc z natury rzeczy słabo określona, ale za to ma zastosowanie w wypadku problemów, których nie da się jednoznacznie i kompleksowo określić. Heurystyki używane są zwłaszcza, gdy nie ma dobrego algorytmu albo gdy jego skonstruowanie i użycie doprowadziłoby do negatywnych skutków w postaci zniekształcenia istoty problemu. Występują wtedy, gdy wysoki poziom komplikacji i złożoności problemu powoduje konieczność stosowania uproszczeń.
Rozumowaniem nazywamy proces umysłowy, polegający na formułowaniu wniosków na podstawie przesłanek. Przesłanki nie muszą być pewne ani udowodnione. Rozumowanie dzielimy na dedukcję i indukcję. W rozumowaniu dedukcyjnym cała wiedza niezbędna do sformułowania wniosku jest zawarta w przesłankach. Inaczej mówiąc, wiedza zawarta jest w przesłankach w postaci niejawnej, a proces rozumowania polega na przekształceniu jej w wiedzę jawną. Rozumowanie dedukcyjne dzieli się z grubsza na sylogistyczne i warunkowe. Pierwsze polega na zastosowaniu specyficznych reguł wnioskowania, zwanych sylogizmami. Sylogizmy orzekają o relacjach między obiektami, np. o ich przynależności do zbiorów. W wypadku rozumowania na podst. Sylogizmów kategorycznych posługujemy się tzw. kwantyfikatorami, czyli wyrażeniami typu „każdy”, „żaden”, „wszyscy” (kwantyfikatory duże), lub „niektórzy” (kwantyfikatory małe). Natomiast rozumowanie oparte na sylogizmach linearnych wykorzystywane są relacje nierówności. Z kolei w rozumowaniu warunkowym wykorzystujemy tzw. funktory rachunków zdań. Najważniejszym funktorem jest implikacja, czyli zdanie skonstruowane wg schematu „jeśli p to q”. Inne ważne funktory to koniunkcja (p i q), alternatywa (p lub q), dysjunkcja (albo p albo q), negacja (nie p, nie q) oraz równoważność (p wtedy i tylko wtedy, gdy q). Rozumowanie na podst. implikacji polega na tym, że przejmuje się dwie przesłanki, z których pierwsza jest okresem warunkowym - poprzednikiem tego okresu. Choć rozumowanie indukcyjne jest zawodne, dostarcza nowych informacji, jest sposobem nabywania nowej wiedzy.
Dedukcja to zabieg pewny, ale poznawczo bezproduktywny, ponieważ polega na wyciąganiu z przesłanek takich informacji, które od początku w nich tkwiły. Natomiast indukcja to zabieg niepewny ale produktywny, może nas bowiem doprowadzić do zupełnie nowych konkluzji. Rozumowaniem zawodnym choć produktywnym jest również abdukcja. Tym terminem określa się wnioskowanie o prawdopodobnych przyczynach znanych faktów. Indukcję i abdukcję łączy to, że są wnioskowaniami obciążonymi ryzykiem błędu, ale zdolnymi wytworzyć nową wiedzę, podczas gdy dedukcja dostarcza tylko wniosków pewnych, choć pozbawionych uroku nowości. Szczególną rolę w poznaniu świata odgrywa rozumowanie przez analogię. Polega ono na dostrzeganiu podobieństwa między dwoma obiektami, przy czym musi to być podobieństwo strukturalne, czyli podobieństwo relacji łączących poszczególne elementy obu obiektów, a nie po prostu ich wspólna cecha. Dzięki rozumowaniu przez analogię zdobywamy nową wiedzę i pojęcia. Dlatego analogia bierze udział w twórczym rozwiązywaniu problemów, jest też cenionym narzędziem stymulowania i trenowania twórczości. Błędy w rozumowaniu i ich przyczyny Zdaniem Evansa psychologiczne badania nad rozumowaniem obejmują trzy grupy problemów: problem kompetencji, tendencyjności oraz treści i kontekstu. Problem kompetencji sprowadza się do pytania czy ludzie są poznawczo przygotowani i na tyle sprawni intelektualnie, aby poprawnie rozumować. Błąd rozumowania wynika wówczas z ograniczeń poznawczych podmiotu, takich jak brak specjalistycznej wiedzy lub zbyt niski poziom inteligencji. Problem tendencyjności odnosi się do kwestii, czy ludzie mają skłonność do popełniania systematycznych błędów w rozumowaniu.
Problem treści i kontekstu dotyczy pytania, czy sposób ujęcia problemu, zwłaszcza słowa użyte w przesłankach, oraz kontekst, w jakim zachodzi rozumowanie, mają wpływ na jego ostateczny wynik. Inni badacze, Oakhill i Johnson - Laird użyli w swoich badaniach metody generowania konkluzji, pozostawiając badanym swobodę w zakresie wniosków wyprowadzonych z dostarczonych im przesłanek. Istotnie częściej badani formułowali poprawne wnioski (58%) jeśli były zgodne z wiedzą potoczną, niż wtedy, gdy byłysprzeczne (38%). Wskazuje to na silny efekt interferencji wiedzy na temat prawdziwości wniosku z jego prawomocnością w świetle logiki. Konflikt tego rodzaju rozstrzygany jest raczej na korzyść wiedzy i przekonań niż logiki. Oaksford i Chater ustalili, że przeciętnie 89% badanych wybiera (poprawnie) kartę z literą G, 62% wybiera (błędnie) kartę z cyfrą 6, a 16% wybiera (błędnie) kartę z literą A. Wyjaśnienie tego efektu zaproponowane przez Wasona odwołuje się do preferowanej przez większość ludzi konfirmacyjnej strategii testowania hipotez. Polega ona na poszukiwaniu wypadków potwierdzających regułę i jednoczesnym ignorowaniu tych, które jej przeczą. Wykazano również, że zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność rozumowania warunkowego. Griggs i Cox użyli przykładu picia alkoholu i 18 lat - w tej wersji zadania aż 73% uczestników eksperymentu poprawnie wskazało na karty, podczas gdy żadna z 40 osób badanych nie rozwiązała poprawnie zadania „abstrakcyjnego”. Zjawisko to nazwano efektem materiału tematycznego.
Rozwiązywanie problemów. Problem to rozbieżność między stanem wyjściowym a pożądanym lub narzuconym stanem docelowym, której nie można zredukować rutynowo. Rutynowe sposoby redukowania rozbieżności, to rozmaite schematy działania, automatyzmy, wyuczone nawyki lub algorytmy. W ujęciu kognitywnym, rozwiązywanie problemu to przede wszystkim aktywność umysłowa, która nie musi dawać żadnych skutków behawioralnych. Zredukowanie rozbieżności może się tu rozegrać wyłącznie w „umyśle” lub w „wyobraźni”. Jeśli człowiek „wie”, to problem z kognitywnego punktu widzenia można uznać za rozwiązany. Jednak takie ujęcie zagadnienia wydaje się zbyt skrajne. Przede wszystkim dopiero w działaniu i interakcji z innymi podmiotami możemy sprawdzić, czy obmyślony sposób działania jest rzeczywiście skuteczny. Po drugie, myślenie nad problemem jest bardzo często wspomagane jawnym zachowaniem (w przypadku zwierząt i małych dzieci proporcja zachowania jawnego do utajonego przyjmuje bardzo duże wartości). Wydaje się więc, że proces rozwiązywania problemu należy definiować jako dążenie do zredukowania rozbieżności za pomocą wszelkich dostępnych form działania, zarówno mentalnych jak i behawioralnych.
Istota i typy sytuacji problemowych. Struktura każdego problemu obejmuje cztery wymiary: 1. Stan początkowy, czyli wyjściowe dane na temat sytuacji, wraz z określeniem dlaczego właściwie nasza sytuacja jest problemowa. Znaczna część aktywności musi wówczas polegać nie na szukaniu rozwiązania, ale na zwiększeniu precyzji opisu stanu wyjściowego. Często opis ten ulega zmianie, a wraz z nim zmienia się poznawcza reprezentacja sytuacji problemowej. Mówimy wówczas o redefinicji problemu. 2. Stan docelowy, czyli stan do którego dążymy i który został w jakiś sposób zdefiniowany, choćby ogólnikowo i nieprecyzyjnie. 3. tak zwane operatory, czyli środki lub reguły, których wolno nam użyć w dążeniu do rozwiązania. 4. Przeszkody, czyli np. ograniczenia nakładane na operatory. Niektóre ograniczenia nakładane na operatory mają charakter bezwzględny, inne wynikają z przyjętych konwencji lub wartości. Te drugie mogą być zneutralizowane jeśli osoba szukająca rozwiązania uwolni się od konwencji lub zmieni swój system wartości. Sytuacje problemowe można podzielić ze względu na różne kryteria. Problemy konwergencyjne to takie, w których stan docelowy jest dość ściśle określony, a rozwiązanie polega zazwyczaj na sformułowaniu jednej poprawnej odpowiedzi. Problemy dywergencyjne cechują się tym, że stan docelowy nie jest zbyt ściśle określony, a możliwych do przyjęcia rozwiązań może być bardzo dużo. Problemy te występują przede wszystkim w warunkach wymagających myślenia twórczego.
Sytuacje problemowe można też podzielić ze wzgl. na wymiar proste - złożone. Kryterium odnosi się do ilości informacji użytych do zdefiniowania problemu. Duży stopień złożoności przejawiają np. problemy naukowe. Problem złożony to zarazem taki, który wymaga od nas skonstruowania skomplikowanego modelu umysłowego. Podział na problemy proste i złożone nie pokrywa się z podziałem na łatwe i trudne. Np. problem 9 kropek, które należy połączyć za pomocą 4 kresek, nie odrywając ołówka od kartki. Kolejne kryterium podziału dotyczy tego, czy problem jest dobrze, czy źle określony. Dobrze określony zawiera wszelkie niezbędne informacje dot. celu, warunków, akceptowalności przyszłych rozwiązań, ograniczeń, kontekstu i innych danych, mogących zaważyć na szansach osiągnięcia rozwiązania. Heurystyki rozwiązywania problemów Heurystyki popularne i powszechnie występujące, a przy tym dobrze opisane, nazywane są strategiami lub metodami rozwiązywania problemów. Np. metoda redukcji różnicy. Inne możliwe posunięcia to: - ignorowanie, (duży stopień zawodności) - metoda poruszania się wstecz (nadaje się do rozwiązywania tzw. problemów transformacyjnych, ograniczeniem tej metody jest to, że niektóre operatory nie są symetryczne; można zrobić zupę rybną z akwarium, ale nie odwrotnie) - metoda analizy środków i celów (Newell i Simon; podział problemu zasadniczego na mniejsze części, podproblemy, z których każdy ma swój odrębny cel, podporządkowany ostatecznie realizacji celu zasadniczego)
Fazy procesu rozwiązywania problemów wg klasycznej koncepcji Wallasa istnieją cztery etapy tego procesu: 1. faza preparacji - czynimy niezbędne przygotowania 2. faza inkubacji - przestajemy świadomie zajmować się problemem, zwykle w wyniku poniesionej porażki lub poczucia impasu. Sam Wallas uważał, że rozwiązywanie problemu trwa wówczas nadal, ale w nieświadomości 3. faza iluminacji/olśnienia - rozwiązanie pojawia się niemal w gotowej postaci, jak gdyby ktoś (nieświadomość) cały czas nad nim pracował. Olśnienie to raczej subiektywne doznanie oczywistości rozwiązania. Procesy pozn. które mogą do takiego efektu doprowadzić określa się mianem wglądu. Wgląd sprowadza się do zasadniczej restrukturyzacji problemu, czyli zmiany jego umysłowej reprezentacji. 4. elaboracja - uporządkowanie wyników oraz sprawdzenie poprawności lub przydatności rozwiązania.
Dużą popularność zdobyła koncepcja siedmiu faz rozwiązywania problemów (Hayes, Sternberg): 1. faza identyfikacji problemu - dostrzeżenie syt. potencjalnie problemowej 2. faza definowania problemu - sformułowanie celów, czyli parametrów stanu docelowego, ale również dostępnych operatorów, ograniczeń nakładanych na operatory, a nawet istotnych cech stanu wyjściowego. Tej fazie może (choć nie musi) towarzyszyć redefinicja problemu 3. wybór właściwej strategii - np. wiedza ekspercka jest czynnikiem wspomagającym wybór odpowiedniej strategii, czynnikiem utrudniającym może być poziom zdolności Intelektualnych 4. zdobywanie niezbędnych informacji - adekwatnych do struktury i charakteru problemu, slr też dopasowane do wcześniej wybranej strategii. Niejednokrotnie dochodzi wówczas do redefinicji problemu, czyli powrotu do fazy drugiej 5. Alokacja zasobów poznawczych - ważny jest rodzaj zasobów i dynamika ich przyznawania. Osoby bardziej sprawne w rozwiązywaniu problemów więcej czasu poświęcają na fazy wstępne niż na późniejsze 6. monitorowanie postępu/proces kontrolny - paradoksalnie osoby skutecznie radzące sobie z problemami monitorują proces rozwiązywania problemu o wiele mniej uważnie lub w sposób mniej ciągły, ponieważ monitorowanie samo w sobie pochłania zasoby poznawcze. W wypadku takich osób monitoring odbywa się w momentach kluczowych 7. ocena poprawności rozwiązania - może ona płynnie przekształcić się w pierwszą fazę cyklu rozwiązywania problemu.
Przeszkody w rozwiązywaniu problemów: - sztywność myślenia - przeszkadza przede wszystkim w zmianie sposobu reprezentacji problemu, pojawia się w wyniku wcześniejszego utrwalenia się jakiegoś wzorca postępowania. Im szybciej powstaje taki wzorzec, tym jest trwalszy i trudniejszy do przełamania. Bezrefleksyjność również potęguje sztywność myślenia. Można wyróżnić trzy rodzaje sztywności: - nawykowe uruchamianie reakcji szybkiej i dobrze utrwalonej - trudność w reorganizacji dostępnych danych w celu ich ponownego zestawienia - odwrotność giętkości ideacyjnej, czyli zdolności do generowania wielu różnorodnych rozwiązań problemów o charakterze dywergencyjnym. Jest kilka specyficznych przejawów sztywności: - błędne nastawienie - schematyczne podejście do problemu, zgodnie z wcześniej wytworzonym sposobem jego reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania (np. problem dzbanów Luchinsa) - inercja mentalna - uporczywe stosowanie zautomatyzowanych schematów, mimo że nie są już adekwatne do sytuacji. Pokrewnym zjawiskiem jest inercja ideacyjna polegająca na uporczywym utrzymywaniu się jednego schematu wytwarzania rozwiązań. Zamiast swobodnego generowania różnorodnych rozwiązań obserwujemy wówczas krążenie wokół jednego skojarzenia czy pomysłu i wytwarzanie jego licznych, ale jednorodnych mutacji; -fiksacja funkcjonalna - niezdolność do używania obiektów inaczej niż w ich typowej funkcji. np. klasyczny problem umocowania świecy.
8. Podejmowanie decyzji Decyzja - wybór jednej spośród co najmniej dwóch możliwości. Etapy podejmowania decyzji - czynności decyzyjne dokonują się w trzech fazach, z których tylko jedna - środkowa - polega na rzeczywistym dokonywaniu wyboru. Wcześniej występuje tzw. faza przeddecyzyjna, w której decydent definiuje problem i zbiera informacje niezbędne do podjęcia decyzji. Druga czynność wykonywana w fazie przeddecyzyjnej to zbieranie informacji nt problemu. Ilość informacji zbieranych przez decydentów w tej fazie zależy krzywoliniowo od ich kompetencji. Najwięcej informacji gromadzą zwykle decydenci średnio kompetentni. Kolejna faza to właściwy proces decyzyjny - polega na wyborze jednej spośród tych, które wcześniej zdefiniowano jako dostępne. W procesie decyzyjnym może dokonać się zmiana poznawczej reprezentacji problemu lub zmiana interpretacji wcześniej znanych faktów. W drugiej fazie procesu dokonujemy ponadto oceny ważności zebranych wcześniej informacji na temat dostępnych nam możliwości. Procesy poznawcze same ulegają wpływom, np emocji tow. podejmowaniu decyzji. Istotną rolę odgrywa umiejętność korzystania z informacji zwrotnych oraz ogólna polityka podejmowania decyzji. Niezwykle istotną funkcję na tym etapie odgrywają też procesy oceny ryzyka wiążącego się z poszczególnymi możliwościami.
Jakość decyzji podejmowanych przez ludzi zależy od zasobności ich systemu poznawczego, przede wszystkim od sprawności pamięci roboczej, której sprawność w dużym stopniu zdeterminowana jest przez poziom inteligencji jednostki. Ocena ważności informacji zebranych w fazie przeddecyzyjnej zależy też od doświadczeń jednostki. Trzecia grupa czynników wpływających na ocenę ważności informacji to kontekst, w jakim przychodzi nam podjąć decyzję. W trzeciej fazie podejmowania decyzji dokonują się procesy postdecyzyjne. Typowym zjawiskiem są rodzące się wówczas wątpliwości. Decydent, aby utwierdzić się w przekonaniu, że dobrze wybrał, podwyższa atrakcyjność wybranej możliwości, adeprecjonuje wartość odrzuconych wariantów. Redukuje w ten sposób dysonans postdecyzyjny. Strategie i heurystyki w podejmowaniu decyzji Zasadniczą rolę odegrała tu koncepcja ograniczonej racjonalności Simona. Ludzie dysponują ograniczonymi zasobami podczas podejmowania ważnych decyzji. Opisał on też tzw. strategię zadowolenia - przeglądanie dostępnych możliwości w porządku przypadkowym i na wyborze pierwszej, która nas wystarczająco satysfakcjonuje. Rzecz nie w tym, aby wybrać najlepiej, ale aby wybrać coś wystarczająco dobrego z punktu widzenia naszych potrzeb.
Strategia eliminacji wg aspektów Tverskyego - te kryteria, które wygrają eliminacje, możemy następnie rozważyć wg bardziej wyrafinowanej metody, np. stosując model kompensacyjny lub kierując się zasadą subiektywnej oczekiwanej użyteczności. Metoda ta może być zatem wykorzystana jako etap przygotowawczy do bardziej rozbudowanych procesów decyzyjnych. W wypadku strategii zadowolenia kończymy proces decyzyjny wtedy, gdy znajdziemy coś, co może nie jest najlepsze, ale spełnia nasze oczekiwania. W wypadku eliminacji wg aspektów raz odrzucona możliwość nie jest już później brana pod uwagę. Heurystyki podejmowania decyzji powinny być szybkie i oszczędne. Badania wykazały, że proste heurystyki nie odbiegają od tych bardziej skomplikowanych ani pod wzgl. poprawności wyniku, ani pod wzgl. uniwersalności, czyli możliwości użycia w różnych sytuacjach decyzyjnych. Proste wygrywają natomiast pod wzgl. Szybkości podejmowanych decyzji. Teoria perspektywy Tverskyego i Kahnemana - koncepcja wyjaśniająca zachowanie ludzi podejmujących decyzje w warunkach ryzyka. Użycie określonych słów w celu przedstawienia problemu decyzyjnego lub też przedstawienie go w określonym kontekście wyzwala zupełnie różne reprezentacje poznawcze owego problemu. Efekt obramowania jest szczególnym przejawem szerszej prawidłowości, zwanej asymetrią pozytywno - negatywną. Inaczej wartościujemy zyski niż straty. Aby uzyskać dwukrotny przyrost satysfakcji i wdzięczności należałoby dać podwyżkę więcej niż dwukrotną. Dwukrotny obiektywny przyrost straty spowoduje więcej niż dwukrotnyspadek satysfakcji obiektywnej wartości zysku/straty jest krzywoliniowa.
9. Język i komunikacja Zwykle posługujemy się językiem w sposób automatyczny. Procesy automatyczne pojawiają się także w trakcie rozmowy. Fonemy to najmniejsze jednostki mowy, które są odróżnialne przez użytkowników danego języka. Same fonemy nie mają znaczenia, ale stanowią budulec dla najmniejszych jednostek znaczeniowych, czyli morfemów, z których składają się słowa. Fonemowi w wypowiedzi odpowiada zgłoska. Istnieje ok. stu fonemów, które potencjalnie potrafią wypowiadać i odróżniać od siebie ludzie. Gaworzące dziecko produkuje około 200 fonemów, natomiast dorosły używa znacznie mniejszej ich liczby. Redukcja ich liczby sprawia, że mają one charakter kategorialny, a tym samym różnicowanie staje się łatwiejsze. De. Saussure uważa, że mowa w przeciwieństwie do języka ma charakter konkretny i jest kształtowana przez różne czynniki sytuacyjne. Chomsky odróżnił kompetencję i realizację językową. Wg niego samo mówienie uzależnione jest od wielu czynników psychologicznych. Teorioinformacyjne podejście do języka - traktuje język jako zbiór nawyków przyswojonych w wyniku długotrwałego uczenia się. Dziecko uczy się powtarzania zwrotów, które zostały pozytywnie wzmocnione przez rodziców. Ludzie potrafią jednak wypowiadać i rozumieć zdania, których nigdy nie słyszeli. Wynika to stąd, że proces uczenia się języka nie ma charakteru mechanicznego, uczymy się pewnych reguł łączenia ze sobą słów, a nie wszystkich kombinacji.
Język jako struktura: na język składają się nie tylko pojedyncze elementy, lecz także reguły ich łaczenia. Nie wszystkie kombinacje są dopuszczalne. Zasady są opanowywane w sposób utajony. Ludzie uczą się dwóch typów reguł: prospektywnych i deskryptywnych. Reguły prospektywne to m. in. opanowywane w szkole reguły gramatyczne. Te reguły zwykle są przestrzegane w syt. oficjalnych i formalnych. Natomiast reguły deskryptywne opisują faktyczny sposób używania języka, w wypowiedziach spontanicznych i nieformalnych. W większości kultur - poza kulturą europejską i amerykańską - nie istnieją reguły określające poprawny sposób używania języka. Charakterystyczne jest to, że podczas uczenia się języka występuje taki okres, iż rozumie się pojedyncze słowa danego języka, albo nawet wszystkie słowa wchodzące w skład zdania, natomiast nie rozumie się całego zdania. Szczególnym wypadkiem są idiomy - rozumienie idiomu na podstawie analizy znaczenia poszczególnych słów może dawać humorystyczne rezultaty. Referencyjność języka - język odnosi się do rzeczywistości pozajęzykowej. Wypowiedź stwierdzająca „to jest potomek dinozaura” jest wypowiedzią poprawną gramatycznie, jednak towarzyszy jej wskazanie na pociąg, czujemy, że jest tu niewłaściwe odniesienie przedmiotowe. Język nie tylko odnosi się do rzeczywistości, ale to odnoszenie się do rzeczywistości nie występuje w sposób automatyczny. Interpersonalność - u dzieci bardzo często pojawia się literalne rozumienie pytań skierowanych pod ich adresem - nie reagują one na ukrytą prośbę (np. „czy możesz zawołać mamę? - mogę”). O interpersonalnym charakterze języka może także świadczyć to, że na widok tego samego obiektu wypowiadamy różne zdania w zależności od tego, kto jest naszym interlokutorem.
Podwójna artykulacja (podwójna struktura) - Kurcz rozumie język jako dwupoziomowy. Pierwszy poziom to poziom gramatyczny i obejmuje zdania, które są ciągami morfemów, na drugim poziomie - fonologicznym - jednostkami są fonemy. Kolejną cechą języka jest jego arbitralność. Słowa są arbitralnie przypisane przedmiotom. Medin, Ross i Markman podkreślają, że język cechuje się wieloznacznością. Znaczenie wypowiedzi jest silnie uzależnione od kontekstu. Badania Pollacka i Picketta: z ukrycia nagrywali rozmowy różnych osób, a następnie wycinali z nich pojedyncze słowa. Okazało się, że badani poprawnie rozpoznawali mniej niż połowę tych wyciętych słów. Gdy jednak prezentowano im całe wypowiedzi, nie mieli żadnych kłopotów ze zrozumieniem. Funkcje języka: Język pełni trzy podstawowe funkcje: 1. komunikacyjną - traktowana jest jako funkcja podstawowa. Komunikacja wykorzystująca język, zmienia swój charakter w zależności od tego, czy posługujemy się mową czy pismem. W pierwszym wypadku komunikaty mają charakter efemeryczny, ich treść zmienia się zależnie od kontekstu, mogą być modyfikowane. Komunikatom werbalnym przypisuje się również funkcję fatyczną. Funkcja ta wiąże się z podtrzymywaniem komunikacji. Można tu wymienić zwroty jak: „to bardzo ciekawe co mówisz”, „opowiedz o tym dokładniej” czy słynne Rogersowskie „Mhm”. Z kolei komunikaty pisemne mają charakter zdekontekstualizowany - mogą być przekazywane do nieograniczonej ilości odbiorców, a twórca komunikatu pisemnego często nie ma dostępu do reakcji potencjalnego odbiorcy. Współcześnie pojawiają się wypowiedzi pisemne, które pozornie mają charakter zdekontekstualizowany, ale zachowują wiele cech wypowiedzi ustnej - np. blogi.
2. reprezentacyjną - odnosi się do rzeczywistości pozajęzykowej. Symbole językowe odnoszą się zarówno do przedmiotów, właściwości oraz relacji między nimi, jak i do myśli na ich temat. Cohen zwraca uwagę na to, że łączą się z tym dwa elementy: internalizacji (uwewnętrznienia), dzięki językowi możemy wykonywać operacje na symbolach odnoszących się do przedmiotów, a nie na samych przedmiotach. Drugi element to możliwość wykonywania za pomocą języka operacji intelektualnych. Zdaniem Cohen, choć funkcja komunikacyjna i reprezentacyjna są ze sobą powiązane, to nie zawsze mogą się zastępować i uzupełniać. Znaczna część wykorzystywanych przez nas reprezentacji, to reprezentacje werbalne. Nie pojawiają się one natychmiast po odebraniu bodźca, ale dopiero po upływie pewnego czasu od stworzenia reprezentacji obrazowych. Najpierw ludzie tworzą reprezentację w postaci obrazu bodźca, a na końcu mogą pojawiać się różne skojarzenia z tym bodźcem. Funkcja reprezentacyjna koncentruje się na w miarę obiektywnym obrazie rzeczywistości. 3. ekspresyjną - mówi nam nie tyle o tym, jakie coś jest, ale jaki mamy stosunek do owego „czegoś”. Język pełni funkcję instrumentalną wzgl. motywacji. Język jest regulatorem emocji. Nazywanie, opisywanie i analiza emocji pełnią ważne funkcje terapeutyczne. Pennbaker wykazał, że z najbardziej pozytywnymi zmianami wiąże się specyficzny sposób opisywania własnych doświadczeń, polegający na posługiwaniu się „słowami przyczynowymi”, takimi jak „dlatego”, „ponieważ”, „w wyniku tego”. Można to zinterpretować jako tendencję do tworzenia spójnej narracji.
Poziomy języka. 1. fonologiczny - poziom elementarnych dźwięków, z których zbudowane są słowa. Ludzie potrafią odróżniać fonemy wypowiadane przez osoby w tym języku, który nie jest ich językiem ojczystym. Koartykulacja także utrudnia rozumienie wypowiadanych słów. Polega na tym, że sposób artykulacji danego fonemu jest zmodyfikowany przez przygotowanie się do następnego fonemu. Koartykulacja ułatwia płynne mówienie. Efekt przywracania fonemów - kiedy wypowiedź jest przerywana w jakimś nietypowym momencie, np. przez kaszel, wtedy z wypowiedzi może zniknąć jakiś fonem, ale ludzie w automatyczny sposób uzupełniają tę lukę, z czego nawet nie zdają sobie sprawy. Kolejnym zjawiskiem związanym z percepcją jest efekt Mc. Gurka. Jest on skutkiem integrowania informacji wzrokowej i dźwiękowej podczas spostrzegania fonemów. Efekt ten można obserwować oglądając filmy z dubbingiem - słyszymy coś pośredniego między napisami a dźwiękiem. Jednak dzieje się tak w przypadku izolowanych zgłosek. W przypadku tekstu sensownego ten efekt jest zdecydowanie słabszy.
2. semantyczny - przedmiotem zainteresowania badacza są słowa i ich znaczenie. Można wyróżnić dwa rodzaje znaczenia: I. denotacyjne, które dzieli się na referencyjne (zbiór obiektów w świecie rzeczywistym), oraz typu sens (pokazuje w jakiej relacji pozostaje słowo czy pojęcie w stosunku do innych pojęć). Poszczególne powiązane ze sobą w sieci pojęcia tworzą pola semantyczne. II. konotacyjne (zwane także znaczeniem emocjonalnym). W większym stopniu wiąże się ze skojarzeniami dot. danego słowa lub pojęcia, aniżeli z odniesieniami przedmiotowymi. Psychologowie rozumieją konotację jako znaczenie emocjonalne. Pojęcie znaczenia konotacyjnego wprowadził Osgood. Opracował on metodę służącą do badania znaczenia zwaną dyferencjałem semantycznym. w wypadku analizy znaczenia konotacyjnego próbujemy odwołać się do wymiarów symbolicznych lub metaforycznych. Osgood wybrał z tezaurusa listę antonimów i stworzył z nich skale o siedmiu znaczeniach - liczba skal musi być nieparzysta żeby można było wybrać punkt centralny. Poszczególne skale dyferencyjne są ze sobą skorelowane i tworzą trzy niezależne czynniki: oceny, siły i aktywności. We wszystkich badaniach czynnik oceny był najsilniejszy, z tego powodu dyferencjał semantyczny określa się jako metodę badania emocjonalnego znaczenia różnych słów.
3. syntaktyczny - badacz próbuje odkryć reguły gramatyczne, dotyczące łączenia słów w zdania. Owe reguły były przedmiotem zainteresowania Chomskyego. Uznał on, że podobieństw należy szukać nie na powierzchni, w rzeczywistych zachowaniach językowych, lecz na poziomie struktur głębokich, ukrytych przed wzrokiem obserwatora. Przedmiotem jego zainteresowania były reguły gramatyczne, które są uniwersalne i dosyć proste i mają charakter negatywny. Chomsky wprowadził pojęcie kompetencji językowej - element genetycznego wyposażenia oraz realizacji językowej, która oznacza rzeczywiste zachowania językowe. Kompetencje można potraktować jako specyficzny rodzaj zdolności. Chomsky na określenie stanu wyjściowego kompetencji językowej używał terminu Uniwersalna Gramatyka.