Das MIT konsolidiert seine KI-Aktivitäten auf mehreren Ebenen gleichzeitig: Das im Januar gestartete Committee on AI Use in Teaching, Learning, and Research Training führt aktuell eine Umfrage unter der gesamten MIT-Community zur KI-Nutzung in der Lehre durch — und hat dabei zwei strukturelle Probleme identifiziert. Erstens: Das Einspeisen von MIT-Daten in kommerzielle Generative-AI-Systeme birgt erhebliche Datenschutz- und Sicherheitsrisiken. Zweitens: Der unterschiedliche finanzielle Zugang zu fortschrittlichen KI-Tools erzeugt Ungleichheit zwischen Studierenden, sowohl institutsübergreifend als auch innerhalb einzelner Kurse.
- Eine Umfrage des MIT warnt vor Datenschutzrisiken und sozialer Ungleichheit durch die Nutzung kommerzieller KI-Tools in der Lehre.
- Als sichere und gerechte Alternative testet die Universität die intern gehostete KI-Plattform „Parley“, die auch als DSGVO-konforme Vorlage dienen könnte.
- Gleichzeitig treibt das Institut die Hardware- und KI-Forschung voran, darunter neue Studien zu Agentic AI und KI-zu-KI-Verhandlungen.
Die Antwort auf beide Probleme heißt Parley — eine MIT-gehostete, sichere Plattform für KI-gestützte Lehr-, Forschungs- und Verwaltungsaufgaben, die sich derzeit in der Pilotphase befindet. Parallel dazu betreibt das MIT Generative AI Impact Consortium (MGAIC) vier neue Studien zu Agentic AI, darunter Szenarien mit KI-zu-KI-Verhandlungen und sogenanntem "Personality Pairing" für optimierte Mensch-Maschine-Kollaboration — verantwortet durch die MIT Sloan Initiative on the Digital Economy. Für Entwickler und System-Architekten besonders relevant: Das MIT AI Hardware Program fokussiert sich auf energieeffiziente Computing-Systeme für Cloud- und Edge-Deployments, während das MIT Lincoln Laboratory KI-Algorithmen für Sprach- und Sprechererkennung unter schwierigen Umgebungsbedingungen weiterentwickelt. Aus EU-Perspektive greifen hier gleich mehrere AI-Act-Dimensionen: Parley als interne Plattform mit klarer Datensouveränität ist ein Ansatz, der für DSGVO-konforme Deployments in deutschen Hochschulen und Unternehmen als Blaupause taugt — Art. 22 (automatisierte Entscheidungen) und Art. 35 (Datenschutz-Folgenabschätzung) werden durch eine Inhouse-Lösung strukturell einfacher handhabbar.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 3 mehrfach verifiziert
📚 Quellen