[PDF] Analyse des données qualitatives avec le Sphinx





Previous PDF Next PDF



PRISE EN MAIN DU LOGICIEL DENQUETE SPHINX

Etape 1 : Dans la page d'accueil de Sphinx choisir « Nouvelle enquête ». Etape 2 : Puis



Tutoriel Sphinx Declic Guide dapprentissage

Vous pouvez faire ce copier-coller directement depuis un tableau Excel ou d'un logiciel de traitement de texte (Word LibreOffice



INTRODUCTION AU LOGICIEL SPHINX

En fait Sphinx est composé d'une suite de 3 logiciels : - le Sphinx Primo : il permet de concevoir un questionnaire



Fiche Sphinx 1 - Création dune enquête

Le logiciel Sphinx permet la réalisation et l'analyse d'enquête. Saisie des questions dans le logiciel et mise en forme du questionnaire.



Analyse des données qualitatives avec le Sphinx

Les logiciels d'analyse de données textuelles ils abordent le texte par le biais de la statistique (Spad T



LES UTILISATIONS PÉDAGOGIQUES DU SPHINX DE L

Le SPHINX est un progiciel de traitement d'enquêtes et d'analyse de données. A l'origine écrit sous DOS en BASICA - la première version du logiciel date de 



Tutoriel Sphinx Dataviv Guide dapprentissage

De plus. Dataviv' ajoute des fonctionnalités d'analyses supplémentaires par rapport à Sphinx. Declic (score NPS ; création de nouvelles variables ; 



Avant de commencer

Ce manuel accompagne la nouvelle version du Sphinx que vous venez d'acquérir : Le Sphinx 2000. Nous vous en félicitons. Ce logiciel s'appuie très fortement sur 



Fiche Sphinx 2 - Saisie et traitement des réponses.

dans le logiciel. Il peut être utile de tester votre enquête avec quelques questionnaires pour en optimiser le contenu. Cela peut par exemple



Avant de commencer

Les logiciels du Sphinx existent sous trois formes : Le. Sphinx Primo Le Sphinx Plus² et Le Sphinx Lexica. Chaque logiciel permet d'accomplir toutes les étapes 



INTRODUCTION AU LOGICIEL SPHINX

INTRODUCTION AU LOGICIEL SPHINX Sphinx est un logiciel d'enquête et d'analyse des données Il permet de vous assister dans chacune des qua-tre grandes étapes de réalisation d'une enquête (hors phase de collecte) : ? la réalisation du questionnaire? la saisie des réponses

Qu'est-ce que le logiciel Sphinx ?

INTRODUCTION AU LOGICIEL SPHINX Sphinx est un logiciel d'enquête et d'analyse des données. Il permet de vous assister dans chacune des qua-tre grandes étapes de réalisation d'une enquête (hors phase de collecte) : ? la réalisation du questionnaire ? la saisie des réponses

Quels sont les avantages de l’utilisation de sphinx ?

Sphinx vous permet d’indexer par lots et de rechercher des données stockées dans des fichiers, une base de données SQL, un stockage NoSQL – ou d’indexer et de rechercher des données à la volée, en travaillant avec Sphinx à peu près comme avec un serveur de base de données.

Comment améliorer la qualité de la recherche sur Sphinx ?

Une variété de fonctions de traitement de texte permettent d’ajuster Sphinx à vos besoins d’application, et un certain nombre de fonctions de pertinence vous permettent également d’améliorer la qualité de la recherche.

Pourquoi utiliser un serveur de base de données avec Sphinx ?

Sphinx vous permet d’indexer par lots et de rechercher des données stockées dans une base de données SQL, NoSQL ou simplement des fichiers rapidement et facilement – ou d’indexer et de rechercher des données à la volée, en travaillant avec Sphinx à peu près comme avec un serveur de base de données.

Analyse des données

qualitatives avec le Sphinx

Les études " quali »

Les situations de recherche

Les " études quali » se définissent bien souvent par opposition aux " études quanti ». On indique ainsi que les informations étudiées proviennent de sources multiples documents, écrits ou discours et qu'elles sont analysées sans recourir au calcul. Comme nous le verrons cette simplification et abusive même si elle définit assez bien les situations de recherche dans lesquelles on a recours aux approches qualitatives. Les enquêtes : recueillir des informations nouvelles. Le qualitatif apparaît avec la présence de questions ouvertes dans les questionnaires. Celles-ci échappent aux analyses statistiques qui font l'efficacité des dépouillements classiques et sont trop souvent tout simplement oubliées au moment de l'analyse. Avec les guides d'entretien, les interviews non directives, les entretiens de groupe, la conversation remplace le questionnaire. Le recueil des informations et leur analyse deviennent bien plus difficile (il faut enregistrer, retranscrire....) et implique tout un savoir faire bien spécifique. Il s'agît là de privilégier l'écoute plutôt que le questionnement, la compréhension et l'analyse en profondeur plutôt que le dénombrement. Les documents : exploiter les informations existantes Avant de lancer l'enquête on a bien sûr étudié la bibliographie sur le sujet et les documents qui peuvent nous renseigner. Comme le font les historiens la quête porte alors sur les traces qui renvoient au domaine étudié (documents juridiques, transactionnels, commerciaux, comptes rendus, annonces et communications de toute sorte...). L'information recueillie peut être très abondante et hétérogène et pose les mêmes difficultés de compréhension et d'analyse. L'évolution des technologies de l'information et Internet notamment, bouleverse l'accès aux données que nous venons d'évoquer. Les enquêtes via le web simplifient considérablement la collecte des réponses aux questions ouvertes, les interviews par mail ou par dialogue électronique (chat) offrent de nouvelles opportunités... Les bases de données bibliographiques, les moteurs de recherches permettent au chercheur de récupérer très facilement références et publications. En généralisant le format numérique les outils de traitement de texte rendent potentiellement accessibles toutes sortes de fichiers et archives électroniques. Ces évolutions mettent à disposition du chercheur un matériau considérable et posent de nouveau problèmes : comment traiter des informations dont l'abondance peut très vite décourager et dont la complexité pose des problèmes spécifiques pour lesquelles la statistique n'offre pas de réponse immédiate.

Les méthodes

Ceci nous conduit à une autre caractéristique des études " quali ». Le terme renvoie à l'approche traditionnelle des textes par lecture et annotation sans autres instruments que le stylo le papier dans la tradition des études littéraire et de la critique. Le travail du chercheur consiste à rendre compte des textes étudiés en citant des extraits et en produisant un nouveau texte compréhensif et démonstratif dont, pour faire bref, la qualité ne tient qu'au talent de lecteur et d'écrivain du chercheur. Avec l'analyse de contenu ou analyse thématique, le classeur et le stylo de couleur s'ajoutent à la panoplie des instruments de recherche. Le travail de lecture devient plus systématique, le système de compréhension s'explicite en une grille qui guide le classement des citation s et le repérage par couleurs ou annotations des passages du texte. Cet effort de méthode débouche naturellement sur le dénombrement des thèmes, si on admet que la répétition ou la fréquence peuvent également faire sens et que l'argument du décompte renforce la démonstration. L'appellation " quali » évoque ainsi le travail artisanal prudemment démarqué des méthodes scientifiques et de la statistique, mais l'approche des textes a aussi de tout temps été marquée par la fascination pour le chiffre ou le recours au comptage. Dans la tradition de la kabbale, de l' exégèse et dans le travail des moines copistes les chiffres et les nombres guident vers les significations cachées ou permettent de contrôler l'exactitude des manuscrits. Des études sur la bible aux concordances de Saint Augustin le texte analysé est mis en fragments puis en cartes perforées... Les premières analyses par ordinateurs ont été effectuées en 1945 par IBM qui pour reconstituer les concordances de Saint Augustin. Devenu donnée textuelle, le texte échappe à la tradition " quali » et se trouve aussi concerné par les problématiques " quanti » comme l'ont montrés des travaux sur l'étude de l'attribution des oeuvres littéraires et l'usage déjà très ancien des techniques informatique par les services de renseignements... En banalisant ces méthodes et en les rendant accessibles, les évolutions technologiques ajoutent l'ordinateur, le moteur de recherche et le logiciel d'analyse de données textuelle à la boite à outil du chercheur. La spécificité des données textuelles et les voies d'analyse assistée par ordinateur. Réponses aux questions ouvertes dans les enquêtes, interviews ou entretiens de groupe, revue bibliographique, étude de documents, ces corpus ont en commun d'être essentiellement formés de données textuelles. Elles ont la complexité et l'ambiguïté de la langue. Leur sens n'est pas fixé a priori comme c'est le cas pour les données quanti pour lesquelles les unités de mesures (variables numériques) et les états observés (variables nominales) sont fixés par un accord tacite de compréhension entre le répondant et l'enquêteur. La signification des données textuelles est à découvrir dans le sens des mots des phrases et de l'organisation du discours. Chacun de ces niveaux (lexique, syntaxe, rhétorique) apporte une contribution au sens dégagé par la lecture. Cette propriété justifie la méfiance de ceux qui pensent qu'on ne peut pas faire l'économie d'une lecture humaine et qu'une machine ne peut pas comprendre un texte. Toutefois sans pour autant souscrire à la prétention des tenants de l'intelligence artificielle nous pouvons accepter que l'ordinateur et sa puissance de calcul apportent une aide pour l'approche des corpus textuels et notamment lorsque ceux-ci sont de très grande taille. Nous montrerons dans ce qui suit que l'ordinateur peut être utilisé comme un auxiliaire pour rendre plus systématique les approches classiques et augmenter la productivité du chercheur et la qualité de ses résultats.

En effet, les fonctions de recherche peuvent

considérablement accélérer le travail traditionnel nécessité par l'usage de la citation ou la production de verbatim Pour l'analyse de contenu, la construction d'une grille thématique et la codification du corpus peuvent se faire en utilisant les ressources de l'informatique. Le travail de conception devient ainsi plus explicite et ri goureux et on gagne en souplesse et productivité pour la lecture et la codification

Mais il peut aussi être mis en

oeuvre d'une manière beaucoup plus automatique en fournissant, à partir du repérage des formes graphiques qui composent le texte, des indications sur son contenu. L'analyse de contenu peut ainsi être automatisée en construisant les listes de mots ou dictionnaires correspondant aux différentes catégories de la grille thématique. La fréquence avec laquelle ces

éléments se trouvent dans le texte sert

d'indicateurs pour mesurer la présence et l'intensité de ces catégories. On peut parler ici de sémiométrie puisque l'us age des dictionnaires permet de " mesurer » les significations ainsi repérées dans le texte

L'analyse lexicale offre une autre voie. Elle

consiste, sans aucun a priori sur le texte à utiliser la redondance des données de langue et la statistique pour substituer à la lecture du texte celle d'éléments lexicaux qui en sont extraits : listes des mots les plus fréquents (mots clés), cartes visualisant la manières dont les mots se trouvent associés (zones thématiques) ou l'effets des circonstances ou des contextes (mots spécifiques) Ces approches sont particulièrement bien adaptées au traitement de très gros corpus. Plus le corpus est volumineux, plus on gagne de temps et plus les régularités et effets statistiques sont significatifs.

Outils et stratégies d'analyse

Tout ceci ne peut bien sûr se faire qu'avec l'aide de logiciels adaptés. L'offre est désormais assez abondante, mais quel logiciel choisir ? Tout dépend du type d'analyse envisagée et de degré de spécialisation des fonctions proposées.

On peut distinguer 3 grandes classes de logiciels

Les logiciels de recherche. Ils permettent de retrouver dans le texte des passages en fonction du contenu ou du contexte et mettent en oeuvre des procédures plus ou moins sophistiquées pour produire du verbatim (Lexico, WordMapper, Diction, Sphinx Lexica...) Les logiciels d'analyse thématique et de contenu ils aident au repérage, à la codification et à l'organisation des idées du texte, ainsi qu'à leur analyse et à leur synthèse (Nud'ist, Atlas ti, Modalisa, Sphinx Lexica...) Les logiciels d'analyse de données textuelles, ils abordent le texte par le biais de la statistique (Spad T,

Alceste, Hyperbase, Sphinx Lexica, ...)

Ces logiciels sont plus ou moins spécialisés sur leur fonction principale. Alceste par exemple est très spécialisé, Modalisa l'est beaucoup moins. Dans ce qui suit nous nous réfèrerons principalement à Sphinx Lexica qui est un outil très généraliste bien qu'à premier abord il semble s'adresser plus spécifiquement au traitement d'enquête. Quelque soit l'outil, le chercheur a un rôle essentiel. C'est lui qui pilote le logiciel et c'est lui qui lance sélectionne les citations et le verbatim, élabore la grille thématique lit et code le texte, c'est enfin lui, qui seul est capable d'interpréter et de donner sens aux résultats des statistiques lexicales. Pour cela il lui faudra maîtriser le passage obligé de l'acquisition des données et de l'intégration du corpus dans le logiciel et selon ces choix produire du verbatim, mener une analyse thématique de contenu, ou faire de l'analyse de données textuelles. Les techniques avec lesquelles il devra se familiariser reposent également sur une bonne connaissance des propriétés de la langue des textes et discours qu'elle permet de construire. Quelques connaissances utiles sur les propriétés de la langue, des textes et des idées....

Les grandes étapes

L'acquisition des données textuelles

La première chose à faire consiste à mettre le texte sous une forme utilisable par le logiciel. Cela implique non seulement de l'avoir sous une forme numérique en le saisissant dans un traitement de texte ou en le recopiant depuis Internet par, mais aussi à le découper en distinguant les différents

éléments qui le composent, br

ef le mettre sous la forme d'une 'table de données'.

Tout dépend alors des circonstances.

Les questionnaires

S'il s'agît d'étudier les réponses aux questions ouvertes d'une enquête par questionnaire faite avec le logiciel, les texte est acquis au moment de la saisie des questionnaires pour le 'enquêtes papier crayon' ou directement entré par le répondant lorsqu'il répond à une enquête internet.

Les interviews non directives

Pour les interviews non directives le travail est plus complexe car il faut d'abord " mettre le texte dans Sphinx ». La méthode la plus simple consiste à le retranscrire dans un questionnaire Sphinx composé des éléments suivants :

1- Des questions d'identité pour enregistrer le nom et

les caractéristiques de l'interviewé

2- Une question pour noter le texte de la question et

une autre pour le texte de la réponse Pour une interview on saisira ainsi autant d'observations que d'échange question réponse auquel il a donné lieu. Il faudra en outre pour chaque nouveau couple répéter les questions d'identité. Si les interviews ont déjà été saisies dans un traitement de texte on importe directement dans Sphinx le fichier qui les contient. Ce travail nécessite le respect des consignes suivantes :

1/ le fichier à importer doit être enregistré au format

texte. Les fichiers de Word ne sont reconnus que s'ils ont

été enregistrés sous se format.

2/ afin de distinguer le texte des questions et des

réponses et indiquer quand on passe d'une interview à une autre, il faut ajouter des repères dans le texte. Ces repères doivent respecter des règles qui permettront à l'ordinateur de les reconnaître et de les interpréter.

Par exemple :

Interview > Pierre

Q > Que pensez vous de ....

R> Mon opinion sur ......

Q> mais encore...

R> et bien voilà....

Interview> Jean

Q>..........

R>...........

Q>........

R>............

Les indications Interview >, Q >, R> signalent le nom de l'interview, une question ou une réponse. On les appelle des balises. Elles sont toujours placées en début de ligne et se terminent par > (ou un autre caractère qui n'est pas utilisé autrement dans le texte) Le texte consécutif à chaque balise est reporté dans une variable qui lui correspond.

L'exemple ci-dessus sera ainsi converti en un

questionnaire de 3 questions ou variables : Interview, Q et R. La table de données correspondante aura 3 colonnes et autant de lignes que de couple questions réponses. Si seul le texte des réponses a été saisi il suffit d'ajouter en début le nom de la première interview puis celui de la deuxième et ainsi de suite pour repérer le passage d'une interview à l'autre. On appelle ces indications des jalons. Elles sont en général notées dans le texte comme ci- dessous : [J=Pierre]

Mon opinion sur...... Et bien voilà....

[J=Jean]

Bla bla bla bla.... Truc....

Dans ce cas l'importation du texte conduit à un questionnaire de 2 questions.

La première indique de

quelle interview il s'agit. La deuxième contient le texte découpé en fragments (paragraphes, phrases ou séquence de mots de longueur égale...). Chaque fragment du texte correspond à une observation. On peut compléter les annotations qui jalonnent l'ensemble des interviews (jalons) par des annotations ponctuelles utilisées par exemple pour ajouter des commentaires (marques) Ces annotation, signalées par une indication mise entre crochet (par exemple [M=commentaire]) permettent de distinguer le contenu des commentaires de celui de l'interview. Les bases de données et l'utilisation des balises

Le texte à analyser peut ég

alement provenir d'une d'une application informatique : logiciels de messagerie, banque documentaires... dans ce cas les données sont structurées par des balises : indications placées au début de chaque élément qui définissent la nature du texte consécutif. Par exemple pour une base de données bibliographique :

Titre : les misérables

quotesdbs_dbs35.pdfusesText_40
[PDF] questionnaire sphinx exemple

[PDF] cours sphinx pdf

[PDF] tableau croisé sphinx

[PDF] importance de la motivation dans l'entreprise

[PDF] hop in cm2 guide du maitre

[PDF] how many eggs in the easter basket mp3

[PDF] happy easter song

[PDF] easter cycle 3

[PDF] sn1 sn2 e1 e2 cours

[PDF] elimination 2

[PDF] réaction d'élimination alcool

[PDF] réaction de substitution nucléophile

[PDF] réaction substitution

[PDF] exercices corrigés sur sn1 sn2 e1 et e2

[PDF] réaction d'addition