English  |  正體中文  |  简体中文  |  Items with full text/Total items : 94286/110023 (86%)
Visitors : 21690015      Online Users : 437
RC Version 6.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
Scope Tips:
  • please add "double quotation mark" for query phrases to get precise results
  • please goto advance search for comprehansive author search
  • Adv. Search
    HomeLoginUploadHelpAboutAdminister Goto mobile version
    ASIA unversity > 資訊學院 > 會議論文 >  Item 310904400/5562


    Please use this identifier to cite or link to this item: http://asiair.asia.edu.tw/ir/handle/310904400/5562


    Title: u-learning 環境中資源管?、資?存取與評?策?之研發與應用--子計劃三:『u-learning 環境中資?存取與呈現技術之研究與應用』
    Authors: 楊鎮華
    Contributors: 國?中央大學資訊工程系
    Date: 2007-12-07
    Issue Date: 2009-12-15
    Publisher: 主辦單位:國科會科學教育處;承辦單位:亞洲大學資訊學院
    Abstract: 由於?動與無所?在學習發展日新月?,使得?動學習對於周遭環境的資訊偵測與情境取得已有日趨成熟之應用,因此也促使無所?在學習環境被建置與實現。但在此無所?在環境下人們所關?的問題莫?以存取技術為首要之考?,有基於此,本計畫提出『U-Learning 環境中資?存取與呈現』,在此計畫當中我們將發展『整合服務與資源之存取之機制』應用於U-Learning 環境中,以提供使用者在無所?在環境下進?協調式合作學習,使所有的?與者透過這樣的機制?分享彼此的知?與經驗。
    無所?在學習與?動學習最大的差?之一,即在於?動存取(MobileWeb access)技術的?同。?動學習所強調的是使用者的移動?與所處的位置;而無所?在學習的存取?僅是強調使用者的移動?與所處的位置,?著重於在?同的人、事、時、地、物所考?的環境下能順暢進?無所?在的存取能?。故為要達到無所?在的存取目標,且基於考?到人、事、時、地、物之情境關係之存取,因此我們需要一些情境感知資訊(Context-awareness information);然而,對於?動存取而言,它卻?需要情境資訊,因它只著重於使用者的移動?與所處的位置,因此,無所?在學習的困難?與複雜?相較於?動學習高上許多。
    綜合上述所言,我們將致?於研究並發展在?動與無所?在學習環境下之資?存取與呈現為本計畫之主要目的,並達成將人與物,因時因地因事做資訊媒合,讓學習者在對的時間、對的地點,能順暢地使用無所?在學習內容與服務,並做適性的無所?在合作學習活動為其首要目標。藉由本計畫的研究與發展,研發在無所?在學習環境下,學習資?之存取、呈現、調適、以及註記,並將研發成果應用在?動與無所?在學習上面。在本子計劃中我們規劃?個主要模組:
    計畫項目一、發展?一套『內容調適機制』,提供調適內容呈現於?同載具之適性化呈現,並讓學習者能夠在任何時間、任何地點、?用有線或無線網?,存取?位學習內容資訊,以滿足學習者的學習時間與學習空間之目的。
    計畫項目二、發展?一套『同儕式網?個人搜尋與註記系統模組』,提供人們能夠方?去管?,分享,並且以有效?模式重新使用個人分享的知?,且可有效地協助在同儕式網?的生手或專家透過此機制滿足探?資訊需求。
    Relation: 國科會科教處95年度資訊教育學門專題研究計畫成果討論會
    Appears in Collections:[資訊學院] 會議論文

    Files in This Item:

    There are no files associated with this item.



    All items in ASIAIR are protected by copyright, with all rights reserved.


    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - Feedback