WO2001084366A1 - Dispositif de mise en place d'informations - Google Patents

Dispositif de mise en place d'informations Download PDF

Info

Publication number
WO2001084366A1
WO2001084366A1 PCT/JP2001/003740 JP0103740W WO0184366A1 WO 2001084366 A1 WO2001084366 A1 WO 2001084366A1 JP 0103740 W JP0103740 W JP 0103740W WO 0184366 A1 WO0184366 A1 WO 0184366A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
user
editing
information processing
moving image
Prior art date
Application number
PCT/JP2001/003740
Other languages
English (en)
French (fr)
Inventor
Takao Yoshimine
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/019,343 priority Critical patent/US7617299B2/en
Priority to EP01926065.2A priority patent/EP1278131B1/en
Publication of WO2001084366A1 publication Critical patent/WO2001084366A1/ja
Priority to HK03103132A priority patent/HK1050944A1/xx
Priority to US11/609,916 priority patent/US7653707B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the present invention relates to an information providing apparatus and an information processing method for providing data in response to a request of an information processing apparatus, and an information processing apparatus and an information processing method executed by the information processing apparatus and the information processing method.
  • the present invention relates to a program storage medium storing a program to be executed. Recently, the functions of personal computers have been improved, and it is now possible to edit not only text data but also image data.
  • An information providing apparatus provides a recording control unit that controls recording of data transmitted by an information processing apparatus in a recording area, and provides data to another information processing apparatus in response to a request from the information processing apparatus.
  • Information of Providing means for providing to the information processing device is provided.
  • the information providing device may further include a generating unit that generates a thumbnail corresponding to the data, and a transmitting unit that transmits the thumbnail to another information processing device.
  • the setting means may further set whether or not to pay when providing data to another information processing apparatus.
  • This setting means can set a fee for providing the data to another information processing apparatus.
  • the information providing apparatus can set the fee to be the amount paid from the information processing apparatus to the other information processing apparatus when providing data to the other information processing apparatus.
  • the information providing method includes: a recording control step of controlling recording of data transmitted by the information processing device in a recording area; and transmitting the data to another information processing device in response to a request from the information processing device.
  • the program in the program storage medium includes a recording control step of controlling recording of data transmitted by the information processing device in a recording area, and other information corresponding to a request from the information processing device.
  • the recording of the data transmitted by the information processing device in the recording area is controlled, and whether or not to provide the data to another information processing device in response to a request from the information processing device is set.
  • the setting for providing data to another information processing device is made, the data is provided to the other information processing device in response to a request from the other information processing device.
  • FIG. 1 is a block diagram showing an example of a moving image editing system according to the present invention.
  • FIG. 2 is a diagram illustrating the configuration of the moving image editing server.
  • FIG. 3 is a diagram for explaining an example of data recorded by the user information management data base.
  • FIG. 4 is a diagram illustrating an example of data recorded in a user video management database.
  • FIG. 5 is a diagram illustrating an example of data recorded in the shared video management database.
  • FIG. 6 is a diagram illustrating an example of a screen displayed by the personal convenience.
  • FIG. 7 is a diagram illustrating an example of a screen displayed by the personal convenience.
  • FIG. 8 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 9 is a diagram illustrating an example of a screen displayed by the personal convenience.
  • FIG. 10 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 11 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 12 is a diagram illustrating an example of a screen displayed by the personal convenience.
  • FIG. 13 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 14 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 15 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 16 is a diagram illustrating an example of a screen displayed by the personal convenience store.
  • FIG. 18 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 19 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 20 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 21 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 22 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 23 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 24 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 25 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 26 is a diagram illustrating an example of a screen displayed by the personal convenience.
  • FIG. 27 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 28 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 29 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 30 is a diagram illustrating an example of a screen displayed by the personal convenience 1
  • FIG. 31 is a diagram illustrating an example of a screen displayed by the personal computer 1
  • FIG. 9 is a flowchart for explaining the entire editing process.
  • FIG. 33 is a flowchart for explaining the processing of the mouth gin.
  • FIG. 34 is a flowchart for explaining the thumbnail display process.
  • FIG. 35 is a flowchart for explaining the process of the upload.
  • FIG. 36 is a flowchart for explaining the attribute setting process.
  • FIG. 37 is a flowchart for explaining the processing of the mouth of material data owned by the user.
  • FIG. 38 is a flowchart illustrating another process of loading the material data owned by the user.
  • FIG. 39 is a flowchart for explaining a process of loading shared material data.
  • FIG. 40 is a flowchart illustrating the automatic editing process.
  • FIG. 41 to FIG. 43 are flowcharts for explaining the sharing process.
  • FIG. 44A and FIG. 44B illustrate the scenario.
  • FIGS. 45A to 45D are diagrams illustrating scenes.
  • FIG. 46 is a diagram schematically illustrating the sharing process.
  • FIG. 47 is a flowchart illustrating the process of checking a moving image.
  • FIG. 48 is a flowchart for explaining a process of storing a moving image in a short time.
  • BEST MODE FOR CARRYING OUT THE INVENTION An information processing apparatus and an information processing method according to the present invention are configured in a moving image editing system as shown in FIG.
  • the personal computer 1-1 executes the browser program 11-1 to request a login to the moving image editing server 3 via the internet 2.
  • the user video management data 4 is recorded based on the data supplied from the video editing server 3 at the personal convenience server 111.
  • a screen for editing data (hereinafter, referred to as material data) owned by the user, such as moving images, still images, or audio, is displayed.
  • the personal computer 11 transmits the data such as a moving image, a still image, or a sound recorded by the personal computer 1-1 to the moving image editing server 3 via the internet 2. .
  • the moving image editing server 3 stores the received data such as moving images, still images, or audio in the user video management database 4 as material data in an area corresponding to the user of the user video management database 4. Let the user record the information in association with the user ID of the user of Personal Combination 1-1.
  • the personal computer Step 1 allows the video editing server 3 to set the attribute of the material data to be shared.
  • the attributes of the material data recorded by the User Video Management Database 4 include whether to allow (share) the use of other users, whether or not the use of other users is charged, Includes evening title and genre.
  • the personal computer 111 uses the shared data recorded in the user video management database 4 based on the data supplied from the video editing server 3. Displays a screen for editing data.
  • the personal computer 111 allows the video editing server 3 to edit the material data recorded or shared by the user video management database 4 in association with the user ID of the user, and edit the data.
  • the video data generated by the above is recorded in the user video management data 4.
  • Personal Combination 1 and 2 run the browser program 1 1 and 2 Requests login to the video editing server 3 via the Internet 2. After logging in to the video editing server 3, the personal convenience 1-2 edits the material data recorded by the user video management database 4 based on the data supplied from the video editing server 3. Display a screen for
  • the personal computer 1-2 transmits the data such as the moving image, the still image, and the sound recorded by the personal computer 1-2 to the moving image editing server 3 via the Internet 2.
  • the moving image editing server 3 converts the received data such as moving images, still images, or audio into the user video management database 4 and as material data to the user of the user video management database 4 as material data.
  • the area is recorded in correspondence with the user ID of the user of the personal computer.
  • the personal computers 112 are used for video editing.
  • the server 3 sets the attribute of the material data to be shared.
  • the attributes of the material data recorded in the user video management database 4 include whether or not the use is permitted (shared) to other users, whether or not the use of other users is charged, and the evening title. Name, genre, etc. are included.
  • the personal computers 1-2 use the shared data recorded in the user video management database 4 based on the data supplied from the video editing server 3. Displays a screen for editing data.
  • the personal computers 1 and 2 allow the video editing server 3 to edit the material data recorded in the user video management database 4 in association with the user's user ID or the shared material data and edit the data.
  • the video of the moving image generated by the above is recorded in the user video management database 4.
  • the video editing server 3 executes the video editing program 12 and receives a login request from the personal computer 1-1 via the Internet 2, the video information is recorded in the user information management database 7. Based on the data of the user at the personal convenience store, it is determined whether or not to permit the mouth-guin.
  • the video editing server 3 is connected to the personal When a login request is made from the user computer, whether or not to permit login is determined based on the personal computer data recorded in the user information management database. judge.
  • the moving image editing server 3 receives, via the Internet 2, moving image, still image, audio data, and the like from the personal computer 11 or 11.
  • the video editing server 3 causes the user video management database 4 to record the received video, still image, or audio data as material data in association with the user ID of the user.
  • the video editing server 3 sets the editing space corresponding to the personal view set 11 in the temporary space 6 for editing. Allocate memory space for When editing is requested from the personal computer 1-2 via the Internet 2, the video editing server 3 secures an editing memory space corresponding to the personal computer 112 in the temporary editing space 6. .
  • the video editing server 3 reads the material data from the user video management database 4 in response to the request of the personal convenience server 11, and secures the read material data in the temporary editing space 6.
  • Load to memory space (corresponding to personal computer 111) (record in a state where video editing server 3 can edit).
  • the material data loaded into the memory space is not limited to the material data owned by the user of the personal computer 1-1, for example, the material data permitted to be used by the user of the personal computer user 1-2 (Shared material day).
  • the moving image editing server 3 edits the material data imported into the memory space of the editing temporary space 6, and generates moving image data as a result of the editing.
  • the video editing server 3 has sufficient processing capacity to edit material data such as moving images, and quickly executes editing processing including special effects that cannot be practically executed by the personal computer 11. I do.
  • the moving image editing server 3 records the moving image data obtained by editing in the editing memory space corresponding to the personal computer 1-1 in the temporary editing space 6. Record.
  • the moving image editing server 3 transmits the moving image data obtained by editing to the personal computer 111, and edits the moving image data by the personal computer 111.
  • the moving image obtained is displayed.
  • the video editing server 3 responds to the request of the personal computer 11 by using the moving image data obtained by editing as material data in the user video management database 4 and the user video management database 4. Is recorded in an area corresponding to the user of the personal computer 1-1 in correspondence with the user ID of the user.
  • the video editing server 3 reads the material data from the user video management database 4 in response to the request of the personal computer 112, and stores the read material data in the temporary editing space 6. Load to the space (corresponding to the personal conveniences 1-2) (record in a state where the video editing server 3 can edit).
  • the material data loaded into the memory space is not limited to the material data owned by the users of the personal computer 112, but is also permitted, for example, by the users of the personal computer 111. Includes material data that is being shared (shared material data).
  • the moving image editing server 3 edits the material data loaded in the memory space of the editing temporary space 6 and generates moving image data as a result of the editing.
  • the moving image editing server 3 records the moving image data obtained by editing in the editing memory space corresponding to the personal space 1-2 of the temporary space 6 for editing.
  • the moving image editing server 3 transmits the moving image data obtained by editing to the personal computer 1-12, and the personal computer 1 1 Display the moving image obtained by editing in 1 and 2.
  • the moving image editing server 3 converts the moving image data obtained by editing to the user video management database 4 as material data and stores it in the user video management database 4.
  • An image corresponding to the user of the personal computer 1-2 is recorded in an area corresponding to the user in the video management database 4 in association with the user ID.
  • the video editing server 3 is provided from a personal computer 1-1 or 112 When the attribute of the material data is transmitted, the attribute of the corresponding material data recorded in the user video management database 4 is updated. When the attribute for sharing the material data is set, the moving image editing server 3 causes the shared video management database 5 to record data on the material data.
  • the user video management database 4 is composed of a memory space such as a hard disk of the video editing server 3 and a data engine executed by the video editing server 3, and has a predetermined size corresponding to a user. For each area, the user ID of the user who owns the material data and the data ID for specifying the material data are recorded along with the material data.
  • the shared video management database 5 is composed of a memory space such as a hard disk of the video editing server 3 and a database engine executed by the video editing server 3, and has a data ID corresponding to the material data to be shared and a shared data ID. Record the user ID etc. that owns the material data. That is, the shared video management database 5 records the data specifying the material data and the data related to the material data, and does not record the material data itself.
  • the temporary editing space 6 is composed of a memory space of a hard disk of the video editing server 3 or a memory space of a main memory of the video editing sub-server 3.
  • the obtained moving image data is recorded.
  • the memory space of the editing temporary space 6 has an area of a predetermined size for each personal computer 11 or 12 requesting the editing. It is reserved for loading material data (temporary recording for editing) and editing.
  • the memory space of the temporary space for editing 6 reserved for loading material data (temporary recording for editing) and editing is released when the video editing superuser 3 finishes editing.
  • the temporary editing space 6 is managed by the moving image editing server 3 and cannot be directly accessed from the personal computer 111 or 1-2.
  • the user information management database 7 is composed of a memory space such as a hard disk of the moving image editing server 3, a database engine executed by the moving image editing server 3, and the like.
  • One that identifies the user such as —Record the ID and password.
  • the browser program 11-1 and the browser program 11-2 are simply referred to as the browser program 11 when it is not necessary to distinguish them individually.
  • FIG. 2 is a diagram illustrating the configuration of the moving image editing server 3.
  • the CPU (Central Processing Unit) 31 actually executes various application programs such as a desktop engine or a moving image editing program 12 and an OS (Operating System).
  • the ROM (Read-only Memory) 32 stores, in general, basically fixed data of the program and calculation parameters used by the CPU 31.
  • a RAM (Random-Access Memory) 33 stores programs used in the execution of the CPU 31 and parameters that change as appropriate in the execution. These are interconnected by a host path 34 composed of a CPU bus or the like.
  • the host bus 34 is connected to an external bus 36 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 35.
  • PCI Peripheral Component Interconnect / Interface
  • the keyboard 38 is operated by the user when inputting various commands to the CPU 31.
  • the pointing device 39 is operated by the user when pointing or selecting a point on the screen of the display 40.
  • the display 40 is composed of a liquid crystal display device, a CRT (Cathode Ray Tube), or the like, and displays various kinds of information in a text image.
  • An HDD (Hard Disk Drive) 41 drives a hard disk and records or reproduces a program or information executed by the CPU 31 on the hard disk.
  • the drive 42 reads data or a program recorded on the mounted magnetic disk 61, optical disk 62, magneto-optical disk 63, or semiconductor memory 64, and transfers the data or program to the interface. 37, external bus 36, bridge 35, and RAM 33 connected via host path 34.
  • keyboards 38 to drive 42 are connected to the interface 37, and the interface 37 is connected via the external bus 36, the bridge 35, and the host bus 34.
  • the communication unit 43 is connected to the Internet 1 network 2, and is connected to the CPU 31 or the HDD 41 to send data (for example, to instruct the browser program 111 or 11-2 to perform editing). Is stored in a packet of a predetermined format, transmitted via the Internet 2, and stored in a packet received via the Internet 2. Data (for example, moving images, still images, audio data, etc.) to CPU 31, RAM 33, or HDD 41.
  • the communication unit 43 is connected to the CPU 31 via the external bus 36, the bridge 35, and the host bus 34.
  • the personal computer 111 or 112 has the same configuration as the moving image editing server 3, and a description thereof will be omitted.
  • FIG. 3 is a diagram showing an example of a user ID and a password identifying a user such as a personal computer 1-1 or 1-2 recorded in the user information management database 7.
  • the user information management database 7 stores the user's password, the directory information indicating the user area of the user video management database 4 corresponding to the user, and the user information corresponding to the user ID identifying the user. It records the user's current service charge (for example, indicating the sum of the amount charged to the user for a predetermined period).
  • the user information management database 7 indicates that the password of the user whose user ID is aaaaa is ***** (the password is actually alphabetic, numeric, or special). The same applies to the following.)
  • the user ID of a user whose user ID is aaaaa is a directory of user ⁇ aaaaa.. Data indicating that the service fee for a user whose user ID is aaaaa is 2,000 yen is recorded.
  • the user ID of the user with bbbbb is *****
  • the user video management database of the user with the user ID bbbbb is 4 Is a user ⁇ bbbbb directory, and records data indicating that the service charge for a user with user ID bbbb b is 1800 yen.
  • the user information management database 7 stores the information of the user whose user ID is ccccc.
  • the user area of the user image management database 4 for the user whose password is ***** and the user ID is ccccc is the directory of user ⁇ ccccc, and the user area of the user whose user ID is ccccc It records data indicating that the service usage fee is 3,500 yen.
  • the user ID, password, and directory information are recorded in the user information management database 7 by the administrator of the video editing server 3 before the user of the personal computer 1 uses the video editing system. Is done.
  • FIG. 4 is a diagram showing an example of data such as a data ID and a user ID for specifying material data recorded in the user video management database 4.
  • the user video management database 4 is associated with a file storing material data such as moving image, still image, or audio data, and is associated with a data ID for identifying the material data.
  • User ID that identifies the user who has the file, the directory where the file that stores the material data is recorded, the file name that is the name of the file, the title of the material data, the category of the material data, Introductory sentence of the material data, a shared flag indicating whether or not other users are permitted to use the material data, and whether or not the material data is charged for use by other users It records the pay flag, and the fee when paying.
  • material data such as moving image, still image, or audio data
  • the user video management database 4 has a user ID of aaaa and a data ID of x xxxx for a user who owns the material data having a data ID of xxxxx.
  • the directory that stores the file that stores certain material data is user ⁇ aaaaa ⁇ moviel, and the file name of the file that stores the material data with the ID xxxxx is golf.mov
  • the title of the material data whose data ID is xxxxx is golf, the category of the material data whose data ID is xxxxx is sport, and the material data whose data ID is xxxxx is
  • the introductory sentence is ****** (The introductory sentence is actually composed of a character string composed of hiragana, katakana, kanji, alphabets, numbers, special characters, etc. The same applies hereinafter.)
  • Stores shared flag is a 0 indicating that does not allow use of the material data.
  • User video management database 4 owns the material data whose data ID is yyyyy.
  • a shared flag of 1 is shown, and a free flag of 0 is shown to indicate that the material is free when used by another user.
  • the user video management database 4 stores material data having a user ID of aaaa and a data ID of zzzzz of a user who owns a material database whose data ID is zzzzz.
  • the directory in which the file is recorded is user ⁇ aaaaa ⁇ movie2, the file name of the file storing the material data whose file ID is zzzzz is travel.mov, and the data ID is zzzzz.
  • the title of a certain material data is travel, the category of material data with data ID zzzzz is travel, and the introduction of material data with data ID zzzzz is ******
  • a shared flag which indicates that other users are permitted to use the material data
  • a shared flag which indicates that the material data is charged for use by other users. Paid flag and its material That contains the de one evening indicating that fee to use the over data is 200 yen.
  • the service usage fee is a value in the range of 0 or plus, not a minus value.
  • the charge can be a negative value. For example, if a user sets a negative fee for material data, such as a moving image for advertising, if other users use the material data, the service fee of other users will decrease. Service charges for users will increase. That is, the user pays a fee to other users, can be utilized such as video images for promotion to other users ⁇ Further, when the shared material data is used, a predetermined point may be added or subtracted to the user and other users. In this case, the administrator of the video editing server 3 receives, for example, a request of the user of the personal computer 1 by a web server (not shown), and exchanges this point with a service or product desired by the user. I do.
  • the user video management database 4 may record the user's credit number in correspondence with the user ID for the charging process.
  • FIG. 5 is a diagram showing an example of a user ID for identifying a user such as a personal viewer 1-1 or 1-2 recorded in the shared video management database 5, and an example of data ID and the like.
  • the shared video management database 5 includes a data ID for identifying material data for which the sharing flag is set to 1 (that is, shared material data), a user ID for identifying an owner of the material data, and the material data. It records a pay flag, etc., that indicates whether or not the service is charged when other users use it.
  • the shared video management database 5 is when the user ID of the owner of the material data whose data ID is yyyyy is aaaa, and when the material data is used by another user. Stores a pay flag, which is 0, indicating that it is free.
  • the shared video management database 5 indicates that the user ID of the owner of the material data whose data ID is zzzzz is aaaaa and that the material data is free when used by other users. Stores a paid flag.
  • the shared video management database 5 indicates that the user ID of the owner of the material data with the data ID of hhhhh is ccccc, and that the material data is free when used by other users. Stores the paid flag that is 1.
  • FIG. 6 is a diagram showing an initial screen displayed by the browser program 11 when the personal computer 1 is connected to the video editing server 3 via the Internet 1.
  • the browser program 11 When the button 103 is clicked from the state shown in FIG. 6, the browser program 11 sends the password to the personal computer 1 via the Internet 2 together with the entered user ID and password. Is transmitted to the moving image editing server 3.
  • the moving image editing server 3 determines whether or not the received user ID and password are registered in the user information management database 7. If it is determined that the user ID and the password are not registered in the user information management database 7, the moving image editing server 3 transmits, via the Internet 2, data for displaying a screen (not shown) indicating that the user cannot log in. Sent to the personal computer in the evening, and does not execute the subsequent video editing processing.
  • the video editing server 3 sends the user ID and the passcode corresponding to the user ID from the user video management database 4.
  • Reads the recorded material data and generates a thumbnail If the material data is moving image data, a thumbnail is generated from the first screen etc.
  • the generation process is a It is executed in response to the data. For example, in the case of JPEG (Joint Photographic Experts Group) data, the thumbnail data stored in the file header is extracted.) To the personal computer 1.
  • JPEG Joint Photographic Experts Group
  • Fig. 7 is a diagram showing a user video thumbnail display screen displayed by the browser program 11 when the personal convenience 1 receives a thumbnail of a screen displaying thumbnails corresponding to the material data owned by the user. is there.
  • a field for displaying a thumbnail, a moving image, a still image, or audio data is transmitted to the moving image editing server 3.
  • Button for executing the processing of editing the attribute of the material data recorded in the user video management database 4 and the moving image for editing the moving image Positive terminals 114 that execute processing to be executed by the editing server 3 are arranged.
  • a thumbnail display field 121-1-1 to 12-1-9 for displaying a thumbnail corresponding to one material data together with an icon corresponding to the attribute is arranged.
  • the browser program 11 displays, in the thumbnail display field 1 2 1-1, a still image together with an icon imitating a camera indicating that the material data corresponding to the thumbnail is a still image. Displays thumbnails of image data.
  • the browser program 11 instructs the thumbnail display fields 1 2 1 and 2 to play a video camera icon indicating that the source data corresponding to the thumbnail is video image data, and to play a moving image A thumbnail of the material, which is a moving image, is displayed together with the icon and the icon for stopping the reproduction of the moving image.
  • the browser program 11 displays an icon corresponding to the format of the material data together with the thumbnail of the material data in the thumbnail display field 12 1 _ 3 to 1 2 1-9.
  • the browser program 11 opens a dialog box shown in FIG. indicate.
  • a field 13 1 for inputting a file name of a file storing data to be transmitted, and a button 13 2 for starting transmission are arranged.
  • the browser program 11 The data stored in the file "golf.mov” is transmitted to the video editing server 3 via the Internet 2 based on, for example, the procedure of HTTP (HyperText Transfer Protocol).
  • the video editing server 3 is connected to a personal computer via the Internet 2
  • the data received from (1) is recorded in the user video management data (4) as the material data owned by the user of the personal computer (1).
  • FIG. 9 is a diagram showing an example of a dialog box for editing an attribute of a material corresponding to a thumbnail.
  • Figure 9 shows an example of a dialog box that includes fields for displaying material data thumbnails, fields for inputting material data titles, and fields for inputting material data categories.
  • Field 1 4 3 Field for inputting the introduction of material data 1 4 4
  • Setting not to share the material data Is selected either one of the buttons 1 455-1 and 1 455-2 is selected).
  • the dialog box shown in Fig. 9 includes a button 1 4 6—1 to set the use of shared material data to a fee, and a button to set the use of shared material data to free 1 4 6— 2 (Either one of button 1 46-1 and button 1 4 6-2 is selected.), Field 1 4 7 for inputting the charge when the use of shared material data is set to pay, and material Buttons 1 4 8 to start transmission of the attribute of the night are arranged.
  • the browser program 11 sends, to the personal computer 1, the attribute corresponding to the input or setting of the fields 142 to 147 via the Internet. Via the port 2 to the video editing server 3.
  • the moving image editing server 3 stores the attribute in the user video management database 4 in association with the data ID of the material data, as described with reference to FIG.
  • the video editing server 3 When receiving the attribute indicating that the material data is shared, the video editing server 3 sends the data ID corresponding to the material data, the user ID of the user who owns the material data, and the A paid flag indicating whether or not the use is paid is stored in the shared video management database 5 .
  • the browser program 11 displays the editing screen shown in FIG. 10 as an example. I do.
  • a reading point 15 1 for starting the process of reading material data from the user video management database 4 is arranged on the video editing server 3.
  • the browser program 11 causes the personal computer 1 to transmit data requesting loading of material data via the Internet 2.
  • the moving image editing server 3 reads the material data such as a moving image, a still image, or audio owned by the user in the evening from the user video management database 4. Then, a thumbnail corresponding to the read material data is generated, and a thumbnail for displaying a thumbnail is transmitted to the personal computer 1 via the internet 2.
  • Personal Combination 1 receiving the data for displaying the thumbnail displays, for example, an editing material selection screen shown in FIG.
  • the edit material selection screen displays thumbnail display fields 16 1 _ 1 to 16 1 9 to display thumbnails corresponding to one material data together with icons corresponding to the contents of the material data. 16 1 and a personal convenience store 1
  • the buttons 1 6 3 to put all the material data you have into the working space of the editing temporary space 6 and the button 1 6 4 to start the process of displaying the thumbnail of the shared material data Are located.
  • thumbnail display field 16 1-3 when the thumbnail display field 16 1-3, the thumbnail display field 16 1-5, and the thumbnail display field 16 1-7 are selected, when the button 16 2 is clicked, the browser Program 11 is a personal computer, a material display corresponding to the thumbnail display field 16 1-3, a thumbnail display field 16 1 _ 5, and a thumbnail display field 1. 6
  • a request for a source of material data corresponding to 1—7 is transmitted to the video editing server 3 via the Internet 2.
  • the video editing server 3 supports the material data corresponding to the thumbnail display fields 1 6 1-3, the material data corresponding to the thumbnail display fields 1 6 1-5, and the thumbnail display fields 1 6 1-7
  • a memory space for editing is secured in the temporary space for editing 6, and the material data and thumbnail display fields corresponding to the thumbnail display fields 1 6 1–3 1 6 1 -
  • the material data corresponding to 5 and the thumbnail display field 1 6 1-7 are read from the user video management database 4 and loaded into the editing memory space of the editing temporary space 6. (Recorded in a state where the video editing server 3 can edit).
  • the video editing server 3 When loaded from the video management database 4, the video editing server 3 displays the material corresponding to the thumbnail display fields 1 6 1–3 and the material corresponding to the thumbnail display fields 1 6 1-5.
  • Thumbnail Display Field 1 6 1 Send data indicating that the material data corresponding to 7 has been loaded to the personal computer 1 through the in-net 2 c Thumbnail display field Load the material data corresponding to the fields 1 6 1—3 and the thumbnail display fields 1 6 1—5 and the material data corresponding to the thumbnail display fields 1 6 1 and 7 Earthenware receiving the data indicating that the, Pas — Sonal computer 1 displays the thumbnail of the loaded material data in a predetermined area of the editing screen as shown in FIG.
  • the browser program 11 sends a request to the personal computer 1 to load all material data owned by the user to the video editing server 3 via the internet 2. Send.
  • the video editing server 3 When the video editing server 3 receives a request to load all the material data owned by the user, the video editing server 3 secures a memory space for editing in the temporary editing space 6, and stores all the material data owned by the user. Is read from the user video management database 4 and loaded into the editing memory space of the editing temporary base 6.
  • the video editing server 3 sends the data indicating that all the material data owned by the user has been spoken. Is transmitted to the personal computer 1 via the Internet 2.
  • the personal computer 1 When receiving the data indicating that all the material data owned by the user has been loaded, the personal computer 1 displays the thumbnail of the loaded data in a predetermined area of the editing screen.
  • the browser program 11 sends a request for a thumbnail of the shared material to the personal computer 1 to the video editing server 3 via the internet 2. Send.
  • the video editing server 3 When receiving the request for the thumbnail of the shared video data, the video editing server 3 reads out the data ID of the shared video data from the shared video management database 5.
  • the video editing server 3 secures an editing memory space in the editing temporary space 6, reads the material data corresponding to the data ID read from the shared video management database 5 from the user video management database 4, and stores the thumbnails.
  • the generated data is transmitted to the personal computer 1 for displaying the thumbnail.
  • FIG. 13 is a diagram illustrating a shared video thumbnail display screen displayed by the browser program 11 when the personal computer 1 receives a thumbnail displaying a thumbnail of the shared material.
  • Thumbnail display field that displays the thumbnail corresponding to one shared material image together with the icon corresponding to the content of the material image 1 7 1—1 to 1 7 1-9 and the selected material
  • a button 17 2 for loading data into the video editing server 3 is provided.
  • the button 17 2 is clicked.
  • the personal computer 1 displays the material data corresponding to the thumbnail display field 171-1-1, the material data corresponding to the thumbnail display field 171-1, and the thumbnail display.
  • a request to load the material data corresponding to the fields 1 7 1-6 is transmitted to the video editing server 3 via the Internet 2.
  • the moving image editing server 3 includes material data corresponding to the thumbnail display fields 1 7 1-1, material data corresponding to the thumbnail display fields 1 7 1-4, and thumbnail display fields 1 7 1-1.
  • a memory space for editing is secured in the temporary space for editing 6, and the source data corresponding to the thumbnail display field 1 7 1—1 is received.
  • the material data corresponding to the thumbnail display fields 1 7 1-4 and the material data corresponding to the thumbnail display fields 1 7 1-6 are read out from the user video management database 4 and edited for editing. Load into the Rally Space 6 editing memory space.
  • the video editing server 3 When the material data corresponding to the thumbnail display field 1 7 1-1 and the thumbnail display field 1 7 1-4 and the material data corresponding to the thumbnail display field 1 7 1-6 are loaded
  • the video editing server 3 includes material data corresponding to the thumbnail display fields 17 1-1, material data corresponding to the thumbnail display fields 17 1-4, and thumbnail display fields 1 7 1-6.
  • the personal computer 1 transmits data indicating that the material data corresponding to the data has been stolen via the Internet 2.
  • —Sonal Computer 1 displays the thumbnail of the loaded material in the specified area of the editing screen.
  • a window for inputting text to be edited is displayed (in the example of Fig. 14, the text "Personal Casting" is input. t now and references will be described later with) 2 8 is disposed, it will be described in detail edit screen.
  • Fig. 15 shows a display example of a part of the edit screen.
  • a material tray 201 is displayed at the upper left of the editing screen.
  • the read button 151 is displayed on the material tray 201.
  • the material tray 201 is shown in an enlarged scale in FIG.
  • the material data such as moving images or still images, loaded into the editing memory space of the editing temporary space 6 and targeted for editing the moving image is displayed as a material clip 2 1 1 in the material tray 201.
  • the title of the material clip, the distinction between a moving image and a still image, and the playback time are displayed on the right side of the material clip 211.
  • the scroll bar 2 1 2 scrolls the material clip 2 1 1 when the number of material clips 2 1 1 increases and it becomes impossible to display everything within the range of the material tray 2 0 1 At this time, it is operated by the user.
  • data files that can be edited are files such as .M0V and .AVI as shown in FIG.
  • a moving image file with an extension a still image file with an extension such as .BMP, .GIF, .JPG, .PNG, .PCT, or a music file with an extension such as .WAV, .AIF be able to.
  • a playback screen 222 is displayed on the right side of the material tray 201.
  • the user operates a pointing device (not shown), and a predetermined one of the material clips 2 1 1 displayed on the material tray 201 is designated, and the play button 2 3 1 is operated. Then, the specified image is reproduced and displayed on the reproduction screen 222. At this time, as the reproduction progresses, the display position of the reproduction position display button 235 moves from the left side to the right side according to the reproduction position.
  • a predetermined range of the moving image can be trimmed. . When trimmed, only the trimmed image data of the file is actually the image to be edited.
  • mode button 23 When the mode button 23 is operated in the story playback mode, the mode is changed to the edit mode. When the mode button 23 is operated in the edit mode, the mode is changed to the story playback mode. Mode is changed.
  • the material clip 2 1 1 specified from the material tray 2 1 at that time is displayed on the playback screen 2 2 1, but the story playback mode
  • the playback button 2 31 is operated in the state where is set, the output tray 29 1 is displayed as described below (corresponding to the data recorded in the temporary editing space 6).
  • Automatically or manually edited stories are played from start to finish.
  • the user selects a predetermined material from the material clips 2 1 1 displayed in the material tray 201, and the user selects the material clip shown in FIG.
  • a desired scenario (story) is created by dragging and dropping a desired position on the plurality of image display sections 301A on the image track 301.
  • the image (material clip) once dragged and dropped onto the predetermined image display section 301A can be moved by dragging and dropping it onto the image display section 301A at another position. It is.
  • the output button 304 is operated when a moving image corresponding to a manually edited story is stored in the user video management database 4.
  • the user When a music data file exists on the material tray 201, the user outputs the icon (material clip 211) of the music data to the background music on the output tray 291. By dragging and dropping to track 302, the sound can be used as background music.
  • the length to which the music information on the BGM track 302 is assigned corresponds to the length of the music information. Therefore, when the length of the music information is short, another music information can be assigned by dragging and dropping it onto the BGM drag 302.
  • a volume button 241, a color tone button 2424, and a playback speed button 2443 are displayed on the right side of the playback screen 221.
  • a window 331 shown in FIG. 20 is displayed below the volume button 241. The user can adjust the output volume of the audio to be edited by operating the adjustment bar 3 32.
  • a window 341 as shown in FIG. 21 is displayed below the color tone button 242.
  • the user can operate the adjustment bar 342 to select a color tone of X-ray, high contrast, as is, sepia, or monochrome.
  • a window 351 shown in FIG. 22 is displayed below the playback speed button 243.
  • the user can operate the adjustment bar 3 5 2 to increase, decrease or adjust the image playback speed.
  • the playback speed button 2 4 3 has an effect display button 2 4 4 is displayed.
  • the user drags the selection button icon 364 displayed in FIG. 23 described later or the selection button icon 362 displayed in FIG. 24 to the effect display button 244. By dropping, the effect can be assigned to the material displayed on the playback screen 22 1.
  • a special effect tray 26 1 is displayed on the right side of the volume button 24 1 to the effect display port 24 4. On this special effect tray 261, tags 271-1 to 271-4 are displayed.
  • a text window ⁇ is displayed as shown in FIG.
  • the image 361 to be edited is displayed.
  • the font button 362 is operated when selecting the font of the text to which the effect is applied.
  • Text input window 3 6 3 The text entered by operating step 4 is displayed.
  • the select button icon 364 is operated when selecting an effect to be added to text (character string).
  • the scroll bar 365 is operated when the selection button icon 365 is scrolled.
  • the text currently input and displayed in the text input window 363 is displayed.
  • the text effect (text animation) selected with the selection button icon 3 6 4 can be added.
  • operating the play button 2 3 1 will immediately display the image with the selected text effect added on the play screen 2 2 1 Is done. In this way, the user can check the text effects in real time.
  • FIG. 24 shows a display example when tag 2 7 1-3 is selected.
  • an effect window is displayed as shown in FIG.
  • an image 381 to be edited is displayed, and a selection button icon 362 for selecting an animation effect is displayed below the image 381.
  • the scroll bar is operated when the selection button icon is scrolled.
  • a predetermined animation effect can be selected by dragging and dropping a predetermined one of the selection button icons 362 onto the effect display button 244.
  • the play button 2 3 1 is operated after making this selection, the image with the animation effect added is displayed on the play screen 2 2 1 in real time.
  • the animation effect of “Tokimeki” is displayed.
  • FIG. 25 shows a display example when tag 2 7 1—4 is selected.
  • a transition window is displayed as shown in FIG.
  • a selection button icon 391 is displayed, and the user can select multiple selection icons. A predetermined one can be selected from among the three. When this selection is made, a schematic image corresponding to the selected transition is displayed on the display unit 393. When the scroll bar 392 is operated, the selection button icon 391 is scrolled.
  • the user drags and drops it onto the transition display section 301B of the image track 301 shown in FIG. A transition can be added to the image (material clip) displayed on the adjacent image display section 301A.
  • a small window for automatic editing is displayed, as shown enlarged in Figure 28.
  • the selection buttons 281-1-1 to 281-1-5 are displayed in this shortcut window.
  • Each of the selection buttons 281-1-1 to 281-1-5 is associated with a predetermined scenario (story) in advance.
  • Each scenario corresponds to a predetermined music set in advance, and the music corresponding to the leftmost selection button 281-1-1 in FIG. 28 is the most tempo-tuned.
  • the one corresponding to the selection button 281,1-5 on the far right is said to be the fastest and violent.
  • the music corresponding to the selection buttons 2 8 1-2 to 2 8 1 1 4 between them is considered to be music with an intermediate tempo.
  • Ambient music is selected in the selection button 281-1
  • piano music is selected in the selection button 281
  • jazz music is selected in the selection button 281-1-3.
  • Select button 2 8 1-4 is associated with pop-hop music
  • select button 2 2 1-5 is associated with techno music.
  • the number of scenes constituting the scenario corresponding to the selection button 281-1-1 is relatively small (the number of scene changes is small) corresponding to these musics.
  • the scenario corresponding to the selection buttons 2 8 1-5 has a large number of scenes (a large number of scene changes). Note that the lengths of the scenarios corresponding to the selection buttons 281-1-1 to 281-1-5 are all the same. In this example, it is 30 seconds.
  • the loop button 282 is operated by the user when it is assumed that the 30-second scenario generated by automatic editing is repeatedly played.
  • the text shake buttons 283 are operated by the user when shaking text (characters).
  • a window 284 is displayed.
  • the user operates a keypad (not shown) in the window 284 to edit the text.
  • (Text shake) Text (character string) can be input. In this example, three character strings “Let's do our best", “Chiyan Junko", and "Happy !!" are displayed.
  • Shake pot 285 is operated by the user when starting a shake (automatic editing).
  • the details of the shake (automatic editing) processing executed by the moving image editing server 3 will be described later with reference to the flowcharts of FIGS.
  • the personal combination 1 is shown in Fig. 29 by the video editing server 3 Display a screen indicating that it is running.
  • the personal convenience display 1 displays a screen indicating that the shake of the video editing server 3 is completed as shown in FIG.
  • the confirmation screen shown in Fig. 31 includes a button 401 for instructing playback of a shaken image, and a user for recording the shaken image recorded in the temporary editing space 6 in the video management database 4.
  • a button 4002 is provided, and a button 4003 for returning to the state shown in FIG. 14 to execute the shake again.
  • FIG. 32 is a flowchart illustrating the entire process of editing an image by the personal convenience 1 and the moving image editing server 3.
  • the video editing program 12 of the video editing server 3 sends the login ID based on the user ID and the passcode data transmitted from the personal computer 1 via the internet 2. Execute the process. If it is determined in step S11 that the data of the user ID and the passcode transmitted from the personal computer 1 are not valid, the processing from step S12 is skipped and the processing is skipped. Ends.
  • step S11 when it is determined that the user ID and the passcode transmitted from the personal computer 1 are valid, the process proceeds to step S12, and the browser of the personal computer 1 is executed.
  • the program 11 receives the thumbnail of the material data owned by the user from the video editing server 3 and displays the thumbnail.
  • step S13 when the button 1 12 is clicked, the browser program 11 of the personal computer 1 executes a process of uploading the material data to the video editing server 3.
  • step S14 the browser program 11 of the personal computer 1 sends the video editing server 3 a process of setting the attributes of the material data. Let it run.
  • step S15 when the button 162 is clicked, the browser program 11 of the personal computer 1 is recorded on the video editing server 3 and the user video management database 4 The user is required to perform a process to make the material data owned by the user audible.
  • step S16 when the button 172 is clicked, the browser program 11 of the personal computer 1 transmits the shared video recorded in the user video management database 4 to the video editing server 3. To execute the process of audible material data.
  • step S17 When the shake button 285 is clicked in step S17, the browser program 11 of the personal computer 1 sends the processing of step S15 or step S16 to the video editing server 3. Executes the automatic editing process based on the material data loaded in step.
  • step S18 the browser program 11 of the personal computer 1 is generated by the video editing server 3 by the automatic editing process of step S17.
  • the transmitted moving image is transmitted, and the personal computer 1 executes a confirmation process of displaying the moving image.
  • step S 19 when the button 402 was clicked, the personal computer 1 was generated on the video editing server 3 by the automatic editing process recorded in the temporary editing space 6.
  • the moving image is recorded in the user video management data base 4, and the process ends.
  • the video editing server 3 automatically edits, in response to the request of the personal computer 1, based on the material data owned by the user of the personal computer 1 and the shared material data.
  • a moving image can be generated, and the generated moving image can be recorded in the user video management database 4 in association with the user ID of the user.
  • step S111 the browser program 11 determines whether or not the button 103 shown in FIG. 6 has been clicked, and has determined that the button 103 has not been clicked. In this case, the process of step S111 is repeated until the button 103 is clicked.
  • step S1101 If it is determined in step S1101 that the button 103 has been clicked, the process proceeds to step S112, and the browser program 11 executes the user ID input in the field 101. Read. In step S1103, the browser program 11 reads the passcode entered in the field 102.
  • step S114 the browser program 11 sends the user ID read in step S112 and the password read in step S113 to the internet 2 To the video editing server 3 via.
  • step S2101 the moving image editing program 12 receives the user ID and the passcode transmitted by the personal combination user 1.
  • step S2102 the moving image editing program 12 determines the received user ID and password based on the user ID recorded in the user information management database 7 and the corresponding passcode. It is determined whether or not the speed is valid. If it is determined that the received user ID and password are valid, the process proceeds to step S2103, where the user information management database 7 Based on the directory information recorded corresponding to the user ID, the user logs into the user area (for example, a predetermined folder) of the user video management database 4, and the process ends.
  • the user information management database 7 Based on the directory information recorded corresponding to the user ID, the user logs into the user area (for example, a predetermined folder) of the user video management database 4, and the process ends.
  • step S2102 If it is determined in step S2102 that the received user ID and password are not valid, the processing in step S2103 is skipped, and the moving image editing program 12 executes the user video management database. Does not allow access to resource 4 and the process described below is not performed.
  • the moving image editing server 3 can access a predetermined user area of the user video management database 4.
  • the moving image editing server 3 does not execute the subsequent processing, and the access by the personal computer 1 is denied.
  • the moving image editing program 12 reads the file name corresponding to the user ID from the logged-in user of the user image management database 4, and stores the file name corresponding to the read file name. Reads stored material data.
  • step S222 the moving image editing program 12 generates a thumbnail based on the data stored in the file read in the process of step S221.
  • step S2203 the moving image editing program 12 transmits the thumbnail generated in the process in step S2202 to the personal computer 1 via the inline 1
  • step S1221 the browser program 11 receives the thumbnail transmitted by the moving image editing server 3.
  • step S122 the browser program 11 displays the thumbnail received in the process of step S1221, and the process ends.
  • the personal computer 1 can display thumbnails of moving images recorded in the user video management database 4 by the user, such as images.
  • step S1301 the browser program 11 displays a dialog box shown in FIG.
  • step S132 the browser program 11 reads the file name of the file that stores the data such as the moving image to be uploaded, which is input in the field 1331.
  • step S1303 the browser program 11 determines whether the button 1332 for instructing transmission has been clicked, and it has been determined that the button 132 has not been clicked. In this case, the process returns to step S1302, and the process of reading the file name is repeated.
  • step S1303 If it is determined in step S1303 that the button 1332 has been clicked, the process proceeds to step S1304, and the browser program 11 reads in the processing of step S1302.
  • the file with the file name is opened, and the data stored in the file is transmitted to the video editing server 3 via the internet 2.
  • step S2301 the moving image editing program 12 receives the data transmitted by the browser program 11.
  • step S2302 the moving image editing program 12 assigns a data ID to the received data, and in the user video management data 4, the user corresponding to the user of the browser program 11 is assigned. It is recorded as material data in an area (specified by the directory information recorded by the user information management database 7 in association with the user ID).
  • step S2303 the video editing program 12 adds the generated data ID described in FIG. 4 to the user video management data 4 together with the attribute corresponding to the data ID. Is recorded, the data recorded in the user video management data base 4 is updated, and the process ends.
  • the video editing server 3 causes the user video management database 4 to record the data of the moving image received from the personal computer 1 and the like, and Generated data IDs (corresponding to material data) and attributes can be recorded.
  • Generated data IDs corresponding to material data
  • attributes can be recorded.
  • step S1402 the browser program 11 determines whether or not the button 113 for executing the process of editing the attribute of the material data is clicked, and the button 113 is clicked. If it is determined that there is no data, the process returns to step S1401, and the process of selecting the material data is repeated.
  • step S1402 If it is determined in step S1402 that the button 113 has been clicked, the process proceeds to step S1403, where the browser program 11 edits the data attribute shown in FIG. Displays a dialog box.
  • step S144 the browser program 11 reads the attribute of the material data set in the field 141, the field 144, the field 144, and the like.
  • step S 1405 the browser program 11 determines whether or not the button 148 for starting the transmission of the attribute has been clicked, and clicks the button 148 for starting the transmission of the attribute. If it is determined that the source data has not been locked, the process returns to step S144, and the process of reading the attribute of the material data is repeated.
  • step S1405 If it is determined in step S1405 that the button 148 for starting the transmission of the attribute has been clicked, the process proceeds to step S1406, and the browser program 11 sends the data in step S140 together with the data ID.
  • the attribute of the material data read in the processing of 144 is transmitted to the moving image editing super 3 via the Internet 2.
  • step S2401 the moving image editing program 12 receives the attribute of the material data together with the data ID transmitted by the personal computer.
  • the moving image editing program 12 registers the attribute of the received material data corresponding to the data ID in the user video management database 4.
  • step S2403 the video editing program 12 determines, based on the attribute of the material data, whether to share the material data to which the attribute has been transmitted, and transmits the attribute. If it is determined that the shared material data is to be shared, the process proceeds to step S2404, and the data ID, user ID, pay flag, and the like corresponding to the material data are registered in the shared video management database 5, and the process ends. I do.
  • the material data registered with the attribute of sharing can be read out from the personal computer of other users who do not own the material data, and can be used.
  • step S2403 If it is determined in step S2403 that the attribute is not to be shared with the transmitted material data, the process of registration in the shared video management database 5 is not necessary, so that step S2404 is performed. The processing is skipped, and the processing ends.
  • the moving image editing server 3 registers the attribute of the material data received from the personal computer 1 in the user video management database 4 and corresponds to the material data set to be shared.
  • the overnight ID, user ID, and pay flag can be registered in the shared video management database 5.
  • step S1501 the browser program 11 transmits a request for loading the user's material data together with the user ID to the moving image editing server 3 via the Internet 2.
  • step S2501 the moving image editing program 12 sends the user ID and the request for the user's material data sent from the personal computer 1 via the internet 2. Receive.
  • step S2502 the moving image editing program 12 checks whether the received user ID is recorded in the user information management database 7. When the received user ID is not recorded in the user information management database 7, the moving image editing server 3 terminates the processing and does not execute the following processing.
  • step S2503 the moving image editing program 12 reads the directory information corresponding to the user ID from the user information management database ⁇ , Based on the read directory information, material data owned by the user is read from the user video management database 4 together with the data ID.
  • step S2504 the video editing block The program 12 generates a thumbnail based on the material data read in the processing of step S2503.
  • step S2505 the moving image editing program 12 transmits the thumbnail generated in correspondence with the data ID to the personal computer 1 via the Internet 2.
  • step S1502 the browser program 11 receives the thumbnail ID and the thumbnail transmitted by the moving image editing server 3.
  • step S1503 the browser program 11 displays a thumbnail on the screen shown in FIG. 11 as an example.
  • step S1504 the browser program 11 reads the selection of the material data based on the selection of the thumbnail display fields 161-1-1 to 161-1-9, step S1505 In, the browser program 11 determines whether or not the button 16 2 for clicking the selected data into the working space of the editing temporary space 6 has been clicked. If it is determined that has not been clicked, the process returns to step S1504, and the process of reading the selection of the material data is repeated.
  • step S1505 If it is determined in step S1505 that button 162 has been clicked, the process proceeds to step S1506, where browser program 11 is selected via Internet 2 in t step S 2 5 0 6 for transmitting data ID of the material data to the video editing server 3, video editing programs 1 2 receives the de-Isseki ID transmitted from the personal combi Interview one data 1.
  • step S 2507 the moving image editing program 12 secures a working space in the temporary editing space 6.
  • the working space of the temporary editing space 6 secured in the processing of step S2507 is a memory space large enough to load (record) material data and edit the material data.
  • step S 2508 the video editing program 12 reads the material data owned by the user corresponding to the received data ID from the user video management data 4, and edits the temporary space for editing 6. Loading into working space.
  • step S 2509 the video editing program 12 sends, via the Internet 2, data indicating that the material data owned by the selected user has been loaded. Sent to personal convenience store 1
  • step S1507 the browser program 11 receives a message indicating that the material data owned by the selected user has been loaded.
  • step S1508 the browser program 11 displays on the screen shown in FIG. 12 a message that the data owned by the selected user has been loaded, and the process ends.
  • the moving image editing server 3 loads the material data selected by the user of the personal convenience 1 into the temporary editing space 6 working space.
  • the browser program 11 displays that the material data has been loaded.
  • steps S1601 to S1603 is similar to the processing of steps S1501 to S1503 shown in FIG. 37, it will be described below. Omitted.
  • step S 1604 it is determined whether or not the button 16 3 for clicking all material data owned by the user is clicked. If the button 16 3 is not clicked, it is determined. If it is determined, the process returns to step S164, and the determination process is repeated.
  • step S1665 the browser program 111 transmits all the material data via the Internet 2.
  • step S 2606 the moving image editing program 12 receives the request for all the material data words transmitted from the personal computer 1.
  • step S 2607 the moving image editing program 12 secures a working space in the temporary editing space 6.
  • step S2608 the video editing program 12 reads all the material data owned by the user from the user video management database 4 and loads it into the working space of the temporary editing space 6. I do.
  • step S 2609 the moving image editing program 12 transmits the data indicating that all the material data owned by the user has been loaded to the personal computer 1 via the internet 2.
  • step S166 the browser program 11 receives data indicating that all material data owned by the user has been loaded.
  • step S1667 the browser program 11 displays on the screen shown in FIG. 12 that all the material data owned by the user has been loaded, and the process ends.
  • the video editing server 3 copies all the material data owned by the user of the personal computer 1 to the working space of the editing temporary space 6. To do When all the material data owned by the user has been loaded into the work space on the temporary work base 6 for editing, the personal computer 1 indicates so.
  • step S1701 the browser program 11 transmits a request to load the material data shared with the user ID to the moving image editing server 3 via the Internet 2.
  • step S2701 the moving image editing program 12 receives a request for loading material data shared with the user ID transmitted from the personal computer 1 via the internet 2.
  • step S2702 the video editing program 12 checks whether or not the received user ID is recorded in the user information management database 7. When it is determined that the received user ID is not recorded in the user information management database 7, the moving image editing program 12 terminates the processing and does not execute the subsequent processing.
  • step S2702 When it is determined in step S2702 that the received user ID is recorded in the user information management database 7, the process proceeds to step S2703, where the video editing program 12 is shared.
  • the data ID of the shared material data is read from the video management database 5, and the shared material data is read from the user video management database 4 based on the read data ID.
  • the video editing program 12 In the process of reading overnight, the video editing program 12 reads the material data corresponding to the data ID from the user area of the user video management database 4 corresponding to other users.
  • step S2704 the moving image editing program 12 generates a thumbnail based on the material data read in the processing in step S2703.
  • step S2755 the moving image editing program 12 transmits the thumbnail generated in correspondence with the data ID to the personal computer-evening 1 via the Internet 2.
  • step S1702 the browser program 11 receives the thumbnail of the material data shared with the data ID transmitted by the moving image editing server 3.
  • the browser program 11 displays the thumbnail of the shared material data on the screen shown in FIG. 13 as an example.
  • step S1704 the browser program 11 reads the selection of the material data based on the selection of the thumbnail display fields 171-1-1 to 171-1-9.
  • step S1705 The browser program 11 determines whether or not the button 17 2 for clicking the selected material data into the working space of the temporary editing space 6 has been clicked, and the button 17 2 has been clicked. If it is determined that no selection has been made, the process returns to step S1704, and the process of reading the selection of the material data is repeated.
  • step S1755 If it is determined in step S1755 that the button 172 has been clicked, the process proceeds to step S1776, where the browser program 111 selects the selected button via the Internet 2.
  • the data ID corresponding to the material data is transmitted to the video editing server 3.
  • step S2706 the moving image editing program 12 receives the data ID transmitted from the personal computer 1.
  • step S2707 the video editing program 12 reads the pay flag corresponding to the data ID from the shared video management data—evening 5, and determines whether or not the loading data is payable, If it is determined that the fee is charged, the process proceeds to step S2708, where the fee corresponding to the data ID is read from the user video management database 4 and the user information management database is read. Update and charge the service usage fee of 7.
  • step S2707 If it is determined in step S2707 that the fee is not charged, no billing process is necessary, so that the process in step S2708 is skipped, and the process proceeds to step S2709.
  • step S2709 the moving image editing program 12 secures a working space in the editing temporary space 6.
  • step S2701 the video editing program 12 reads the shared material data corresponding to the received data ID from the user video management database 4, and stores the temporary working space 6 in the editing temporary space 6. Talk to
  • step S2711 the video editing program 12 transmits the data indicating that the selected shared material data has been loaded to the personal computer 1 via the internet 1 .
  • step S1777 the browser program 11 receives data indicating that the selected shared material data has been played.
  • step S1708 the browser program 11 displays that the selected shared material data has been loaded, and the process ends.
  • the video editing server 3 loads the shared material data selected by the user of the personal computer 1 into the work space of the temporary editing space 6, and loads the material data. When is charged, execute the billing process. When the shared material data—the evening selected in the temporary work space 6 for editing—is loaded, the personal computer 1 displays that the material data has been played.
  • step S1801 the browser program 11 reads the text input in the window 284.
  • step S1802 the browser program 11 selects one of the selection buttons 281-1-1 to 281-1-5, the loop button 282, or the text shake button 283. Read automatic editing settings such as selection.
  • step S1803 the browser program 11 It is determined whether or not 85 has been clicked, and if it is determined that shake button 285 has not been clicked, the process returns to step S1801 to read and set the text. Repeat the reading process.
  • step S1803 If it is determined in step S1803 that shake button 285 has been clicked, the flow advances to step S1804, and browser program 11 executes the text read in step S1801. , And the automatic editing settings read in the processing of step S1802 are transmitted to the moving image editing server 3 via the internet 2.
  • step S2801 the moving image editing program 12 receives the text and the automatic editing setting transmitted by the personal computer overnight 1.
  • step S2802 the moving image editing program 12 transmits, via the Internet 2, the screen data indicating that the automatic editing is being processed to the personal computer 1.
  • step S1805 the browser program 11 receives the data on the screen indicating that the automatic editing process is being performed, which is transmitted from the moving image editing server 3 and is in progress.
  • step S186 the browser program 11 displays a screen indicating that automatic editing is being performed, as shown in the example of FIG.
  • step S2803 the moving image editing program 12 executes the sharing process.
  • the details of the sharing process will be described later with reference to the flowcharts of FIGS.
  • step S 2804 the moving image editing program 12 saves the moving image data generated by the sharing process as one file in the working space of the editing temporary space 6. I do.
  • step S 2805 the moving image editing program 12 transmits, via the Internet 2, a message on the screen indicating that the automatic editing process has been completed to the personal computer 1.
  • step S1805 the browser program 11 receives a screen message indicating that the automatic editing process transmitted by the moving image editing superuser 3 has been completed.
  • step S 186 the browser program 11 displays a screen indicating that the automatic editing process has been completed, as shown in FIG. 30, and the process ends.
  • the personal computer overnight 1 sends the automatic editing to the video editing server 3. Processing can be executed.
  • step S51 a process is performed in which material data spoken into the work space of the editing temporary space 6 is read as a material clip. That is, as described above, the video editing program 12 uses the editing temporary space 6 as the work space of the editing temporary space 6 as the material (material clip) specified by the user from the user video management database 4 for automatic editing processing. Loading.
  • the material data captured at this time is not limited to those recorded in the user video management database 4, but may also be those captured from a web server (not shown) via the Internet 2. It is also possible that the drive 42 captures data from the magnetic disk 61, the optical disk 62, the magneto-optical disk 63, or the semiconductor memory 64.
  • the moving image editing program 12 executes a process of taking in the received text if the text has been received as a shake target. That is, when performing the automatic editing process, the user operates the tag 271-1 to display the shaker window (FIG. 28). Then, when performing a text shake, the user further operates the text shake button 283. As a result, a window 284 is displayed as shown in FIG. At this time, the user operates a keyboard or the like to enter text to be shaken. The personal computer 1 captures this text and displays it in the window 284. The entered text is edited in step S2801 in Fig. 20 before moving image processing is performed. Server 3
  • the user designates one of the five selection buttons 281-1-1 to 281-1-5.
  • a predetermined scenario (recorded on the moving image editing server 3) is corresponding to each of the selection buttons 281-1-1 to 281-1-5 in advance. By selecting, you select the scenario.
  • Video editing The program 12 receives the data corresponding to the selection of the selection button 281, in the process of step S2801 in FIG.
  • the moving image editing program 12 executes a process of reading the selection settings of the selection buttons 281-1-1 to 281-1-5 in step S53.
  • the scenario shown in Figure 44A corresponds to the selection button 281-1.
  • This scenario consists of four scenes, Scene 1 to Scene 4.
  • Scenes 1 to 4 each have a length of time T1 to T4.
  • an animation effect is added to scene 1 and a monochrome color adjustment process is performed to scene 2.
  • a transition is added between scene 1 and scene 2.
  • music M1 is supported in this scenario.
  • the moving image editing program 12 randomly selects a predetermined item from the image information of the material clip displayed in the material tray 201 and assigns it to scenes 1 to 4 Execute As a result, the editing process according to the prepared scenario is automatically performed by the moving image editing program 12.
  • FIG. 44B shows a scenario corresponding to the selection button 281 1 ⁇ 2.
  • This scenario is composed of five scenes, scene 1 to scene 5, and the length of each scene is Tl 1 to T 15.
  • Scene 2 has a sepia color
  • scene 3 has a random effect
  • scenes 4 and 5 have transitions.
  • the music is M2.
  • the selection settings of the selection buttons 2 8 1—1 to 2 8 1—5 are received by the moving image editing server 3 in the processing of step S2801 in FIG. 20 prior to the execution of the sharing processing. ing.
  • step S54 the moving image editing program 12 executes a process of reading a loop setting. That is, the user operates the loop button 282 on the assumption that the scenario obtained by editing is reproduced continuously and repeatedly.
  • Video The editing program 12 receives the data corresponding to the setting of the loop button 282 in the process of step S2801 in FIG.
  • step S54 the moving image editing program 12 stores data corresponding to the setting of the loop button 282.
  • the scenario corresponding to selection button 281-1 is basically configured as shown in Fig. 44A. However, when loop button 282 is not operated (continuous repetition).
  • the scene is more precisely composed, for example, as shown in Figure 45A. That is, at the beginning of scene 1 (SC 1), a feed-in portion SC 1 ′ is formed, and at the last scene 4 (SC 4), a fade-out portion SC 4, is formed. At the end of the music M 1, a silent part M 1 ′ is also formed.
  • the result becomes as shown in FIG. 45B. That is, the playback is started by the fade-in part SC 1 ′, and after the scene 1, scene 2, scene 3, and scene 4 are played, the first playback is finished by the fade-out part SC 4 ′ I do. Then, subsequently, the reproduction of the image of the scene SC1, which is fade-in is started again, and the scene 1, the scene 2, the scene 3, and the scene 4 are reproduced, and the feed-out portion SC 4 'is displayed again. In the music, a silent part M 1 ′ is reproduced at the boundary part A between the first reproduction and the second reproduction. Therefore, the viewer can easily recognize that the reproduction has been completed once at the boundary portion A. On the other hand, when the selection button 281-1 is selected and then the lubopotan 282 is also operated, a scenario as shown in Fig. 45C is selected.
  • This scenario consists of four scenes, Scene 1 to Scene 4.
  • the beginning of Scene 1 and the end of Scene 4 change even if Scene 1 is played back after Scene 4
  • the timing of switching between scene 1 and scene 2 or switching between scene 2 and scene 3 or switching between scene 3 and scene 4 changes the scene but ends one scenario It is configured not to be recognized as having been done. That is, the configuration is such that it can be recognized that the screen is simply switched.
  • the music Ml is continuously played again after the music M1 is played back from the beginning to the end, the scene is not recognized as having ended at that portion.
  • the moving image editing program 12 corresponds to the selection buttons 281-1-1 to 281-1-5, and assumes that the playback is not performed continuously and repeatedly. There are two scenarios: a scenario that assumes that If the loop button 282 is not operated, the former is selected, and if it is operated, the latter is selected.
  • step S55 the moving image editing program 12 determines whether or not a loop is specified, that is, determines whether or not the loop button 282 is operated. If this is the case, the process proceeds to step S56, where the moving image editing program 12 selects a scenario for the group corresponding to the operated one of the selection buttons 2811-1 to 281-1-5. . On the other hand, if it is determined in step S55 that the loop is not specified, in step S57, the moving image editing program 12 selects the selection buttons 2 8 1—1 to 2 8 1— From 5, select the non-loop scenario corresponding to the selected one.
  • step S58 the video editing program 12 adds the ID (identification number) to each of the material clips read in the processing in step S51. ). Then, in step S59, the video editing program 12 selects one of the material clips with a random number. In other words, one material clip is selected by randomly selecting one ID from the IDs allocated in the processing of step S58.
  • step S60 the moving image editing program 12 converts the material clip selected in the processing of step S59 into one of the scenes in the scenario selected in the processing of step S56 or step S57 (now , The first scene).
  • step S61 it is determined whether or not the process of associating the material cribs with all scenes has been completed. If the process has not been completed, the process returns to step S59, and the subsequent processes are repeatedly executed. In this way, for example, predetermined material clips are associated with scene 1, scene 2, scene 3, and scene 4 shown in FIG. 44A, respectively.
  • step S61 If it is determined in step S61 that the association processing for all scenes has been completed, the process proceeds to step S62, and the moving image editing program 12 selects one scene. For example, here, the first scene is selected.
  • step S63 the video editing program 12 determines whether the length of the scene selected in step S62 is shorter than the length of the material clip associated with the scene. ⁇ If the length of the selected scene is shorter than the length of the associated material clip, the process proceeds to step S64, and the video editing program 12 matches the scene in the material clip. The part is determined by random numbers. For example, if the material clip length is 5 seconds and the corresponding scene length is 1 second, which one of the 5 seconds of the image will correspond to that scene is 1 to It is determined by generating numbers up to 5 with random numbers.
  • step S63 determines whether the length of the selected scene is not shorter than the length of the associated material clip. If it is determined in step S63 that the length of the selected scene is not shorter than the length of the associated material clip, the process proceeds to step S65, where the video editing program 12 Performs processing to extend the length of the material clip to match the length of the scene. For example, if the length of the material clip is 1 second and the length of the scene is 5 seconds, increasing the length of the material clip by 5 times (1 Z 5 times faster) In other words, by playing back in slow motion, the length of the material clip and the length of the scene correspond.
  • step S66 the video editing program 12 determines whether or not an effect is specified for the scene in the scenario. .
  • an animation effect is specified for this scene 1.
  • the process proceeds to step S67, and the moving image editing program 12 determines whether the effect has been determined. That is, the effect finger
  • the effects are already determined, such as in the animation effect, as in scene 1 of Figure 44A, and in the other, in the case of scene 3 in Figure 44B. May be specified as a random effect. In the case of the random effect, it is decided to add the effect, but it is not yet decided which effect to apply.
  • step S68 the moving image editing program 12 generates a random number from among 24 effects prepared in advance, and generates one effect. To decide. If it is determined in step S67 that the effect has already been determined, or if the effect has been determined in step S68, the process proceeds to step S69, where the video editing program 12 is executed. The determined effect is made to correspond to the material clip corresponding to the scene.
  • step S66 If it is determined in step S66 that no effect has been specified for the scene, steps S67 to S69 are not necessary and are omitted.
  • step S70 video editing is performed.
  • Program 12 determines whether a transition has been specified. If the transition is specified, the process proceeds to step S71, and the moving image editing program 12 sets a transition between the next material clip.
  • a wipe effect as shown in FIG. 27 is given, and the screen is switched. Will be done.
  • step S70 If it is determined in step S70 that no transition is specified, the process in step S71 is unnecessary and is skipped.
  • step S72 the moving image editing program 12 determines whether or not text has been captured. That is, as described above, when performing the text shake, in step S52, the target text is fetched. In this case, the process proceeds to step S73, and the moving image editing program 12 randomly determines whether or not to shake the text in the scene currently being processed. In step S74, the moving image editing program 12 determines whether or not it is determined to perform a text shake, and determines that the text shake is to be performed. If it is determined, the process proceeds to step S75, and one text is randomly selected from the captured text. For example, as shown in FIG. 28, if three texts are captured, one of them is selected as the one corresponding to the scene to be processed.
  • step S76 the moving image editing program 12 randomly determines a text insertion position.
  • a text insertion position there are five text insertion positions: the center of the screen, the upper right, the upper left, the lower left, and the lower right. One of these five positions is randomly determined.
  • step S74 If it is determined in step S74 that text shaking is not to be performed, the processing in step S75 and step S76 is skipped. If it is determined in step S72 that the text has not been captured, the processes in steps S73 to S76 are skipped.
  • step S77 it is determined whether or not processing has been completed for all scenes. If processing has not been completed for all scenes, the process returns to step S62, and processing for the next scene is completed. Thus, the same processing as that described above is performed. If it is determined in step S77 that the processing for all scenes has been completed, the processing ends.
  • the material clips CL1 to CL5 are designated as the material clips.
  • one scenario is determined by the operation of the selection button 281 designated by the user.
  • This scenario is composed of n scenes SC 1 to SCn in this example.
  • scene SC3 is subjected to a sepia color adjustment
  • scene SCn_l is provided with a random effect
  • scene SCn is subjected to a sepia color adjustment. Transitions are formed between scenes SC2 and SC3, between scenes SC3 and SC4, and between scene SCn-1 and scene SCn.
  • the length of scene SC 1 is 2 seconds
  • the length of scene SC 2 is 2.2 seconds
  • the length of scene SC 3 is 4.0 seconds
  • the length of scene SCn-3 is 1 second
  • the scene SCn- The length of 1 is 5 seconds
  • the length of scene SCn is 3 seconds.
  • the music corresponding to this scene is also determined in advance.
  • the moving picture editing program 12 randomly selects a predetermined one of the five material clips CL1 to CL5 and assigns the selected one to each of the scenes SC1 to SCn. For example, when the material clip CL 5 is assigned to the scene SCn-3, the length of the material clip CL 5 is 1 second while the length of the scene S Cn-3 is 1 second. These exist. Therefore, in this case, the part of the playback time of the material clip CL5 between t1 and t4, which is 1 second between the randomly selected times t2 and t3, is the scene SCn Assigned to -3.
  • the user can automatically obtain predetermined edited image information only by specifying the material crib. Since the assignment of material cribs is determined randomly, even if the same material cribs are selected, basically different editing results will be obtained.
  • step S1901 the browser program 11 transmits a request to play the moving image generated by the automatic editing to the moving image editing server 3 via the Internet 1 net.
  • step S2901 the moving image editing program 12 receives the request for reproduction of the moving image generated by the automatic editing transmitted by the personal combination user 1.
  • step S2902 the moving image editing program 12 reads the data of the moving image generated by the automatic editing from the file recorded in the working space of the temporary editing space 6, and Send it to Personal Contest overnight 1 via Net2.
  • step S1902 the browser program 11 receives the moving image data transmitted by the moving image editing server 3.
  • step S1903 the browser program 11 reproduces the received moving image data, and the process ends.
  • the user of the personal computer 1 checks the moving image generated by the automatic editing and determines whether to save the moving image. Can be.
  • step S111 the browser program 11 transmits a request to save the data of the moving image generated by the automatic editing to the moving image editing server 3 via the Internet 2.
  • step S22001 the moving image editing program 12 receives the request for saving of the moving image generated by the automatic editing transmitted by the personal computer.
  • step S210002 the moving image editing program 12 generates a data ID and stores the data in the edited data file stored in the working space file of the temporary editing space 6. Assign an ID and save it in the user video management database 4 user space.
  • step S210003 the moving image editing program 12 adds, to the user video management database 4, the generated data ID described with reference to FIG. 4 and the data corresponding to the data ID. Evening is recorded, and the data recorded in the user video management database 4 is updated, and the process ends.
  • the browser program 11 can record the data of the moving image generated by the automatic editing in the user video management database 4.
  • the moving image editing server 3 records the moving image, still image, or audio data transmitted from the personal computer 1 via the Internet 2 as the material data in the user video management database 4.
  • a moving image can be automatically generated based on the owned material data recorded in the user video management database 4.
  • the video editing server 3 automatically generates a moving image based on the shared material data recorded in the user video management database 4 in response to the request of the personal convenience 1. Can be.
  • the user of the personal convenience store 1 can further share the automatically generated moving image data. Can be set.
  • the series of processes described above can be executed by hardware, but can also be executed by software. Execute a series of processing by software
  • the programs that make up the software can execute various functions by installing a special program built into a dedicated hardware or by installing various programs. For example, it is installed from a program storage medium at a general-purpose personal convenience store.
  • a program storage medium for storing a program installed in a computer and made executable by the computer includes a magnetic disk 61 (including a floppy disk) and an optical disk 62 (CD-ROM). (Compact disc-read only memory), DVD (including digital versatile disc), magneto-optical disc 63 (including MD (mini-disc)), or semiconductor memory 64 It is composed of package media, ROM 32 in which programs are temporarily or permanently stored, and HDD 41.
  • the program is stored in the program storage medium via wired or wireless communication, such as a local area network, in-home network 2, or digital satellite broadcasting, via a communication unit 43 such as a router and a modem as necessary. This is performed using a medium.
  • the steps of describing the program stored in the program storage medium may be performed not only in a chronological order according to the described order but also in a chronological order. It also includes processes that are executed in parallel or individually.
  • the system represents the entire device configured by a plurality of devices.
  • INDUSTRIAL APPLICABILITY The present invention controls the recording of data transmitted by an information processing device in a recording area, and provides data to another information processing device in response to a request from the information processing device. Data is provided to another information processing device in response to a request from the other information processing device when data is set to be provided to another information processing device. So the data is made easily available to a large number of other users.

Description

明細書 情報提供装置及び情報提供方法並びにプログラム格納媒体 技術分野 本発明は、 情報処理装置の要求に対応してデータを提供する情報提供装置及び 情報処理方法並びにこれら情報処理装置及び情報処理方法が実行するプログラム を格納したプログラム格納媒体に関する。 景技術 最近、 パーソナルコンピュータの機能が向上し、 テキストデータだけでなく、 画像データも編集することができるようになつている。
しかし、 画像データの利用を希望している他の利用者を探すことは、 大変に手 間がかかり、 また、 他の利用者の利用に提供されている画像データを探すことも 手間がかかるという問題があった。 発明の開示 本発明は、 このような状況に鑑みて提案されるものであり、 画像などのデータ を、 簡単に、 多数の他の使用者が利用できるようにする情報提供装置及び情報処 理法を提供することにあり、 さらには、 これら情報提供装置及び情報処理法に用 いられるプログラムを格納したプログラム格納媒体を提供することを目的とする < 上記のような目的を達成するために提案される本発明に係る情報提供装置は、 情報処理装置が送信したデータの、 記録領域への記録を制御する記録制御手段と、 情報処理装置の要求に対応して、 他の情報処理装置にデータを提供するか否かを 設定する設定手段と、 設定手段により、 他の情報処理装置にデータを提供する設 定がされているとき、 他の情報処理装置からの要求に対応して、 デ一夕を他の情 報処理装置に提供する提供手段とを含む。
本発明に係る情報提供装置は、 更に、 データに対応するサムネイルを生成する 生成手段と、 サムネイルを他の情報処理装置に送信する送信手段とを設けること ができる。
設定手段は、 更に、 他の情報処理装置にデータを提供するとき、 有料か否かを 設定するようにすることができる。 この設定手段は、 更に他の情報処理装置にデ —夕を提供するときの料金を設定するようにすることができる。
本発明に係る情報提供装置は、 料金を、 他の情報処理装置にデータを提供する とき、 情報処理装置側から他の情報処理装置側に支払われる金額とすることがで きる。
また、 本発明に係る情報提供方法は、 情報処理装置が送信したデータの、 記録 領域への記録を制御する記録制御ステップと、 情報処理装置の要求に対応して、 他の情報処理装置にデータを提供するか否かを設定する設定ステップと、 設定ス テツブの処理により、 他の情報処理装置にデータを提供する設定がされていると き、 他の情報処理装置からの要求に対応して、 データを他の情報処理装置に提供 する提供ステップとを含む。
さらに、 本発明に係るプログラム格納媒体のプログラムは、 情報処理装置が送 信したデータの、 記録領域への記録を制御する記録制御ステップと、 情報処理装 置の要求に対応して、 他の情報処理装置にデータを提供するか否かを設定する設 定ステップと、 設定ステップの処理により、 他の情報処理装置にデ一夕を提供す る設定がされているとき、 他の情報処理装置からの要求に対応して、 データを他 の情報処理装置に提供する提供ステップとを含む。
上記した各発明は、 情報処理装置が送信したデータの、 記録領域への記録が制 御され、 情報処理装置の要求に対応して、 他の情報処理装置にデータを提供する か否かが設定され、 他の情報処理装置にデータを提供する設定がされているとき、 他の情報処理装置からの要求に対応して、 デ一夕が他の情報処理装置に提供され る。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明に係る動画編集システムの一例を示すプロック図である。 図 2は、 動画編集用サーバの構成を説明する図である。
図 3は、 ユーザ情報管理デ一夕ベースが記録しているデ一夕の例を説明する図 である。
図 4は、 ュ一ザ映像管理データベースが記録しているデータの例を説明する図 である。
図 5は、 共有映像管理データベースが記録しているデータの例を説明する図で ある。
図 6は、 パーソナルコンビユー夕が表示する画面の例を説明する図である。 図 7は、 パーソナルコンビユー夕が表示する画面の例を説明する図である。 図 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 9は、 パーソナルコンビユー夕が表示する画面の例を説明する図である。 図 1 0は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 1は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 2は、 パーソナルコンビユー夕が表示する画面の例を説明する図である。 図 1 3は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 4は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 5は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 6は、 パーソナルコンビュ一夕が表示する画面の例を説明する図である。 図 1 7は、 編集の対象を説明する図である。
図 1 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 9は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 0は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 1は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 2は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 3は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 4は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 5は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 6は、 パーソナルコンビユー夕が表示する画面の例を説明する図である。 図 2 7は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 9は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 3 0は、 パーソナルコンビユー夕 1が表示する画面の例を説明する図である, 図 3 1は、 パーソナルコンピュータ 1が表示する画面の例を説明する図である, 図 3 2は、 画像の編集の全体の処理を説明するフローチャートである。
図 3 3は、 口グインの処理を説明するフローチヤ一トである。
図 3 4は、 サムネイルの表示の処理を説明するフローチヤ一トである。
図 3 5は、 アツブロードの処理を説明するフローチヤ一トである。
図 3 6は、 属性の設定の処理を説明するフローチヤ一トである。
図 3 7は、 使用者が所有する素材データの口一ドの処理を説明するフローチヤ —トである。
図 3 8は、 使用者が所有する素材データのロードの他の処理を説明するフロー チャートである。
図 3 9は、 共有している素材データのロードの処理を説明するフローチャート である。
図 4 0は、 自動編集の処理を説明するフローチャートである。
図 4 1乃至図 4 3は、 シェ一力処理を説明するフローチャートである。
図 4 4 A及び図 4 4 Bは、 シナリオを説明する図である。
図 4 5 A乃至図 4 5 Dは、 シーンを説明する図である。
図 4 6は、 シェ一力処理を模式的に説明する図である。
図 4 7は、 動画像の確認の処理を説明するフローチヤ一トである。
図 4 8は、 動画像のデ一夕の保存の処理を説明するフローチャートである。 発明を実施するための最良の形態 本発明に係る情報処理装置及び情報処理方法は、 図 1に示すような動画編集シ ステムにおいて構成される。 この動画編集システムは、 パーソナルコンピュータ 1— 1が、 ブラウザプログラム 1 1— 1を実行して、 インタ一ネヅト 2を介して 動画編集用サーバ 3への口グインを要求する。 動画編集用サーバ 3に口グインし た後、 パーソナルコンビユー夕 1一 1は、 動画編集用サーバ 3から供給されたデ —夕を基に、 ユーザ映像管理デ一夕ベース 4が記録している、 使用者が所有する 動画像、 静止画像、 又は音声などのデータ (以下、 素材データと称する) を編集 するための画面を表示する。
パーソナルコンピュータ 1一 1は、 パーソナルコンビュ一夕 1— 1が記録して いる動画像、 静止画像、 又は音声などのデータをイン夕一ネッ ト 2を介して、 動 画編集用サーバ 3に送信する。 動画編集用サーバ 3は、 受信した動画像、 静止画 像、 又は音声などのデータを、 ユーザ映像管理データベース 4に、 素材データと してユーザ映像管理デ一夕ベース 4の使用者に対応する領域にパーソナルコンビ ユー夕 1― 1の使用者のユーザ I Dと対応させて記録させる。
ユーザ映像管理データベース 4に記録されている素材データの内、 選択したも のを、 例えば、 パーソナルコンピュータ 1— 2などにも利用できる (以下、 共有 していると称する) ようにするとき、 パーソナルコンピュータ 1一 1は、 動画編 集用サーバ 3に、 共有する旨の素材データの属性を設定させる。
ユーザ映像管理デ一夕ベース 4が記録している素材データの属性には、 他の使 用者に利用を許可する (共有する) か否か、 他の使用者の利用が有料か否か、 夕 ィ トル名及びジャンルなどが含まれる。
パーソナルコンピュータ 1一 1は、 共有している素材データを利用するとき、 動画編集用サーバ 3から供給されたデ一夕を基に、 ユーザ映像管理データベース 4が記録している、 共有している素材データを編集するための画面を表示する。 パーソナルコンピュータ 1一 1は、 ユーザ映像管理データベース 4が使用者の ユーザ I Dと対応させて記録している素材データ、 又は共有している素材データ を、 動画編集用サ一バ 3に編集させ、 編集により生成された動画像のデータをュ —ザ映像管理デ一夕べ一ス 4に記録させる。
パーソナルコンビユー夕 1一 2は、 ブラウザプログラム 1 1— 2を実行して、 インターネット 2を介して、 動画編集用サーバ 3へのログインを要求する。 動画 編集用サーバ 3にログインした後、 パーソナルコンビユー夕 1— 2は、 動画編集 用サーバ 3から供給されたデータを基に、 ユーザ映像管理データべ一ス 4が記録 している素材データを編集するための画面を表示する。
パーソナルコンビュ一夕 1— 2は、 パーソナルコンピュータ 1— 2が記録して いる動画像、 静止画像、 又は音声などのデータをインタ一ネッ ト 2を介して、 動 画編集用サーバ 3に送信する。 動画編集用サーバ 3は、 受信した動画像、 静止画 像、 又は音声などのデータを、 ュ一ザ映像管理データベース 4に、 素材データと してュ一ザ映像管理データベース 4の使用者に対応する領域にパーソナルコンピ ユー夕 1一 2の使用者のュ一ザ I Dと対応させて記録させる。
ユーザ映像管理データベース 4に記録されている素材データの内、 選択したも のを、 例えば、 パーソナルコンピュータ 1— 1などにも利用できるように共有す るとき、 パーソナルコンピュータ 1一 2は、 動画編集用サーバ 3に、 共有する旨 の素材データの属性を設定させる。
ユーザ映像管理データベース 4が記録している素材データの属性には、 他の使 用者に利用を許可する (共有する) か否か、 他の使用者の利用が有料か否か、 夕 ィ トル名、 及びジャンルなどが含まれる。
パーソナルコンピュータ 1— 2は、 共有している素材データを利用するとき、 動画編集用サーバ 3から供給されたデ一夕を基に、 ユーザ映像管理データベース 4が記録している、 共有している素材データを編集するための画面を表示する。 パーソナルコンピュータ 1一 2は、 ユーザ映像管理データベース 4が使用者の ユーザ I Dと対応させて記録している素材デ一夕、 又は共有している素材データ を、 動画編集用サーバ 3に編集させ、 編集により生成された動画像のデ一夕をュ 一ザ映像管理データベース 4に記録させる。
動画編集用サーバ 3は、 動画編集プログラム 1 2を実行して、 インターネット 2を介して、 パーソナルコンピュータ 1— 1からログインを要求されたとき、 ュ —ザ情報管理デ一夕ベース 7に記録されているパーソナルコンビュ一夕 1 一 1の 使用者のデータを基に、 口グインを許可するか否かを判定する。
動画編集用サーバ 3は、 イン夕一ネッ ト 2を介して、 パーソナルコンビユー夕 1 一 2からログインを要求されたとき、 ユーザ情報管理デ一夕ベース 7に記録さ れているパーソナルコンピュータ 1 一 2の使用者のデ一夕を基に、 ログインを許 可するか否かを判定する。
動画編集用サーバ 3は、 インタ一ネッ ト 2を介して、 パーソナルコンビュ一夕 1 一 1又は 1一 2から動画像、 静止画像、 又は音声のデータなどを受信する。 動 画編集用サーバ 3は、 ユーザ映像管理データベース 4に、 受信した動画像、 静止 画像、 又は音声のデ一夕などを使用者のユーザ I Dと対応させて素材データとし て記録させる。
動画編集用サーバ 3は、 イン夕一ネッ ト 2を介して、 パーソナルコンビユー夕 1— 1から編集を要求されたとき、 編集用テンポラリスペース 6にパーソナルコ ンビュー夕 1一 1に対応する編集用のメモリ空間を確保する。 動画編集用サーバ 3は、 インターネッ ト 2を介して、 パーソナルコンピュータ 1— 2から編集を要 求されたとき、 編集用テンポラリスペース 6にパーソナルコンピュータ 1一 2に 対応する編集用のメモリ空間を確保する。
動画編集用サーバ 3は、 パーソナルコンビユー夕 1 一 1の要求に対応して、 ュ —ザ映像管理データベース 4から素材データを読み出して、 読み出した素材デ一 タを編集用テンポラリスペース 6に確保したメモリ空間 (パーソナルコンビユー タ 1一 1に対応する) にロードする (動画編集用サーバ 3が編集可能な状態に記 録する) 。 メモリ空間にロードされる素材データは、 パーソナルコンピュータ 1 — 1の使用者が所有している素材データのみならず、 例えば、 パーソナルコンビ ユー夕 1— 2の使用者が利用を許可している素材データ (共有している素材デー 夕) を含む。
動画編集用サーバ 3は、 編集用テンポラリスペース 6のメモリ空間に口一ドさ れた素材データを編集して、 編集された結果である動画像のデータを生成する。 動画編集用サーバ 3は、 動画像などの素材データを編集する十分な処理能力を有 し、 パーソナルコンピュータ 1 一 1では実質的に実行できないような特殊効果な どを含む編集の処理を迅速に実行する。
動画編集用サーバ 3は、 編集して得られた動画像データを、 編集用テンポラリ スペース 6のパーソナルコンピュータ 1― 1に対応する編集用のメモリ空間に記 録する。
動画編集用サーバ 3は、 パーソナルコンピュータ 1 一 1の要求に対応して、 編 集して得られた動画像データをパーソナルコンピュータ 1 一 1に送信し、 パ一ソ ナルコンピュータ 1 一 1に編集して得られた動画像を表示させる。 また、 動画編 集用サーバ 3は、 パーソナルコンピュータ 1 一 1の要求に対応して、 編集して得 られた動画像データを素材データとして、 ユーザ映像管理データベース 4に、 ュ 一ザ映像管理データベース 4の使用者に対応する領域にパーソナルコンピュータ 1 - 1の使用者のュ一ザ I Dと対応させて記録させる。
動画編集用サーバ 3は、 パーソナルコンピュータ 1 一 2の要求に対応して、.ュ 一ザ映像管理データベース 4から素材データを読み出して、 読み出した素材デ一 夕を編集用テンポラリスペース 6に確保したメモリ空間 (パーソナルコンビユー 夕 1— 2に対応する) にロードする (動画編集用サーバ 3が編集可能な状態に記 録する) 。 メモリ空間にロードされる素材データは、 パーソナルコンビユー夕 1 一 2の使用者が所有している素材デ一夕のみならず、 例えば、 パーソナルコンビ ュ一タ 1 一 1の使用者が利用を許可している素材データ (共有している素材デ一 夕) を含む。
動画編集用サーバ 3は、 編集用テンポラリスペース 6のメモリ空間にロードさ れた素材データを編集して、 編集された結果である動画像のデータを生成する。 動画編集用サーバ 3は、 編集して得られた動画像データを、 編集用テンポラリス ペース 6のパーソナルコンビュ一夕 1― 2に対応する編集用のメモリ空間に記録 する。
動画編集用サーバ 3は、 パーソナルコンビユー夕 1— 2の要求に対応して、 編 集して得られた動画像デ一夕をパーソナルコンビュ一夕 1 一 2に送信し、 パ一ソ ナルコンピュータ 1 一 2に編集して得られた動画像を表示させる。 また、 動画編 集用サーバ 3は、 パーソナルコンビュ一タ 1 一 2の要求に対応して、 編集して得 られた動画像データを素材デ一夕として、 ユーザ映像管理データベース 4に、 ュ 一ザ映像管理データベース 4の使用者に対応する領域にパーソナルコンピュータ 1 - 2の使用者のュ一ザ I Dと対応させて記録させる。
動画編集用サーバ 3は、 パーソナルコンピュータ 1— 1又は 1 一 2から所定の 素材データの属性が送信されたとき、 ユーザ映像管理データベース 4が記録して いる、 対応する素材データの属性を更新する。 動画編集用サーバ 3は、 素材デ一 夕に共有する旨の属性が設定されたとき、 その素材データに関するデータを共有 映像管理データベース 5に記録させる。
ユーザ映像管理データベース 4は、 動画編集用サーバ 3のハードディスクなど のメモリ空間、 及び動画編集用サーバ 3が実行するデ一夕べ一スェンジンなどで 構成され、 使用者に対応させた所定の大きさの領域毎に分割され、 その領域毎に、 素材データと共に、 素材データを所有する使用者のユーザ I D、 素材データを特 定するデータ I Dなどを記録する。
共有映像管理データベース 5は、 動画編集用サーバ 3のハードディスクなどの メモリ空間、 及び動画編集用サーバ 3が実行するデータベースエンジンなどで構 成され、 共有される素材データに対応するデータ I D、 共有される素材デ一夕を 所有するユーザ I Dなどを記録する。 すなわち、 共有映像管理データベース 5は、 素材デ一夕を特定するデータ及び素材データに関係するデ一夕を記録し、 素材デ —夕そのものを記録しない。
編集用テンポラリスペース 6は、 動画編集用サーバ 3のハードディスクのメモ リ空間、 又は動画編集用サ一パ 3のメインメモリのメモリ空間などから構成され、 編集に利用される素材デ一夕及び編集して得られた動画像データを記録する。 編 集用テンポラリスペース 6のメモリ空間は、 動画編集用サーバ 3が編集をすると き、 編集を要求するパーソナルコンピュータ 1一 1又は 1一 2毎に所定の大きさ の領域が、 動画編集用サーバ 3に素材データのロード (編集のための一時的な記 録) 及び編集用として確保される。 素材データのロード (編集のための一時的な 記録) 及び編集用に確保された編集用テンポラリスペース 6のメモリ空間は、 動 画編集用サ一パ 3が編集を終了したとき、 開放される。
編集用テンポラリスペース 6は、 動画編集用サーバ 3により管理され、 パーソ ナルコンピュータ 1一 1又は 1― 2から直接アクセスできない。
ユーザ情報管理データベース 7は、 動画編集用サ一パ 3のハ一ドディスクなど のメモリ空間、 及び動画編集用サーバ 3が実行するデータべ一スエンジンなどで 構成され、 パーソナルコンピュータ 1一 1又は 1一 2などの使用者を特定するュ —ザ I D、 及びパスワードなどを記録する。
以下、 パーソナルコンピュータ 1一 1及びパーソナルコンビュ一夕 1一 2を個 々に区別する必要がないとき、 単に、 パーソナルコンビユー夕 1 と称する。 以下、 ブラウザプログラム 1 1— 1及びブラウザプログラム 1 1— 2を個々に区別する 必要がないとき、 単に、 ブラウザプログラム 1 1 と称する。
図 2は、 動画編集用サーバ 3の構成を説明する図である。 C P U (Central Pr ocessing Unit) 3 1は、 デ一夕べ一スエンジン又は動画編集プログラム 1 2など の各種のアプリケーションプログラムや、 O S (Operat ing System)を実際に実行 する。 R O M (Read-only Memory) 3 2は、 一般的には、 C P U 3 1が使用する プログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。 R A M (Random-Access Memory) 3 3は、 C P U 3 1の実行において使用するプロ グラムや、 その実行において適宜変化するパラメ一夕を格納する。 これらは C P Uバスなどから構成されるホス トパス 3 4により相互に接続されている。
ホス トバス 3 4は、 ブリ ッジ 3 5を介して、 P C I (Per ipheral Component In terconnect/Interface )バスなどの外部バス 3 6に接続されている。
キーボード 3 8は、 C P U 3 1に各種の指令を入力するとき、 使用者により操 作される。 ポインティングデバイス 3 9は、 ディスプレイ 4 0の画面上のポイン トの指示や選択を行うとき、 使用者により操作される。 ディスプレイ 4 0は、 液 晶表示装置又は CRT (Cathode Ray Tube) などから成り、 各種情報をテキス トゃィ メ一ジで表示する。 H D D (Hard Disk Drive) 4 1は、 ハードディスクを駆動し、 それらに C P U 3 1によって実行するプログラムや情報を記録又は再生させる。
ドライブ 4 2は、 装着されている磁気ディスク 6 1、 光ディスク 6 2、 光磁気 ディスク 6 3、 又は半導体メモリ 6 4に記録されているデータ又はプログラムを 読み出して、 そのデータ又はプログラムを、 インタ一フェース 3 7、 外部バス 3 6、 ブリ ッジ 3 5、 及びホス トパス 3 4を介して接続されている R A M 3 3に供 給する。
これらのキーポード 3 8乃至ドライブ 4 2は、 イン夕一フェース 3 7に接続さ れており、 インタ一フェース 3 7は、 外部バス 3 6、 ブリ ッジ 3 5、 及びホス ト バス 3 4を介して C P U 3 1に接続されている。 通信部 4 3は、 イン夕一ネット 2が接続され、 C P U 3 1、 又は H D D 4 1か ら供給されたデ一夕 (例えば、 ブラウザプログラム 1 1 一 1又は 1 1— 2に編集 を指示させるための画面を表示させるデータなど) を、 所定の方式のパケッ トに 格納して、 インタ一ネッ ト 2を介して、 送信するとともに、 インタ一ネット 2を 介して、 受信したパケッ トに格納されているデータ (例えば、 動画像、 静止画像、 音声などのデ一夕など) を C P U 3 1、 R A M 3 3、 又は H D D 4 1に出力する。 通信部 4 3は、 外部バス 3 6、 ブリッジ 3 5、 及びホストバス 3 4を介して C P U 3 1に接続されている。
なお、 パーソナルコンピュータ 1 一 1又は 1 一 2は、 動画編集用サーバ 3と同 様の構成を有しているので、 その説明は、 省略する。
図 3は、 ユーザ情報管理データベース 7が記録しているパーソナルコンピュー 夕 1— 1又は 1— 2などの使用者を特定するユーザ I D、 パスワードなどのデ一 夕の例を示す図である。 ユーザ情報管理データベース 7は、 使用者を特定するュ —ザ I Dに対応させて、 その使用者のパスワード、 その使用者に対応するユーザ 映像管理データべ一ス 4のユーザェリアを示すディレクトリ情報、 及びその使用 者のその時点でのサービス利用料 (例えば、 所定の期間の使用者に対する課金の 積算された金額を示す) などを記録している。
図 3の例において、 ユーザ情報管理データべ一ス 7は、 ユーザ I Dが aaaaaであ る使用者のパスワードが、 ***** (パスワードは、 実際には、 アルファベッ ト、 数 字、 又は特殊文字などで構成される文字列から成る。 以下同じ。 ) であり、 ュ一 ザ I Dが aaaaaである使用者のユーザ映像管理デ一夕べ一ス 4のユーザェリァが、 user¥aaaaaのディレクトリであり、 ュ一ザ I Dが aaaaaである使用者のサ一ビス利 用料が、 2000円であることを示すデータを記録している。
ユーザ情報管理デ一夕べ一ス 7は、 ユーザ I Dが bbbbbである使用者のパスヮ一 ドが、 *****であり、 ユーザ I Dが bbbbbである使用者のユーザ映像管理データべ —ス 4のユーザエリアが、 user¥bbbbbのディレクトリであり、 ユーザ I Dが bbbb bである使用者のサービス利用料が、 1800円であることを示すデータを記録してい る。
同様に、 ユーザ情報管理データベース 7は、 ユーザ I Dが cccccである使用者の パスワードが、 *****であり、 ユーザ I Dが cccccである使用者のユーザ映像管理 データベース 4のユーザエリアが、 user¥cccccのディ レク ト リであり、 ユーザ I Dが cccccである使用者のサービス利用料が、 3500円であることを示すデータを記 録している。
ュ一ザ I D、 パスワード、 及びディ レク ト リ情報は、 パーソナルコンピュータ 1の使用者による動画編集システムの利用に先立って、 動画編集用サーバ 3の管 理者などにより、 ユーザ情報管理データベース 7に記録される。
図 4は、 ユーザ映像管理データべ一ス 4が記録している素材データを特定する デ一夕 I D、 及びュ一ザ I Dなどのデータの例を示す図である。
ユーザ映像管理データベース 4は、 動画像、 静止画像、 若しくは音声のデータ などの素材データを格納しているファイルと共に、 素材データを特定するデータ I Dに対応させて、 その素材デ一夕の所有している使用者を特定するユーザ I D、 その素材データが格納されているファイルが記録されているディ レク ト リ、 その ファイルの名称であるファイル名、 その素材データのタイ トル、 その素材データ のカテゴリ、 その素材デ一夕の紹介文、 他の利用者にその素材データの利用を許 可するか否かを示す共有フラグ、 その素材データを他の利用者が利用するとき有 料か否かを示す有料フラグ、 及び有料であるときの料金などを記録している。 図 4の例において、 ユーザ映像管理データべ一ス 4は、 データ I Dが xxxxxであ る素材デ一夕を所有している使用者のュ一ザ I Dが aaaaaであり、 データ I Dが x xxxxである素材データを格納しているファイルが記録されているディ レク ト リが user¥aaaaa¥movielであり、 デ一夕 I Dが xxxxxである素材データを格納している ファイルのファイル名が golf . movであり、 データ I Dが xxxxxである素材デ一夕の タイ トルがゴルフであり、 データ I Dが xxxxxである素材デ一夕のカテゴリがスポ ーッであり、 及び、 データ I Dが xxxxxである素材データの紹介文が ****** (紹介 文は、 実際には、 平仮名、 カタカナ、 漢字、 アルファベッ ト、 数字、 又は特殊文 字などで構成される文字列から成る。 以下同じ。 ) であることを示すデ一夕、 並 びに他の利用者にその素材データの利用を許可しないことを示す 0である共有フ ラグを格納している。
ュ一ザ映像管理データべ一ス 4は、 デ一夕 I Dが yyyyyである素材データを所有 している使用者のユーザ I Dが aaaaaであり、 データ I Dが yyyyyである素材デー 夕を格納しているファイルが記録されているディ レク ト リが user¥aaaaa¥movielで あり、 デ一夕 I Dが yyyyyである素材データを格納しているファイルのファイル名 が f ish.movであり、 データ I Dが yyyyyである素材デ一夕のタイ トルが釣りであり、 データ I Dが yyyyyである素材データのカテゴリがスポーツであり、 及びデータ I Dが yyyyyである素材デ一夕の紹介文が ******であることを示すデータ、 並びに他 の利用者にその素材データの利用を許可することを示す 1である共有フラグ、 及 びその素材デ一夕を他の利用者が利用するとき無料であることを示す 0である有 料フラグを格納している。
同様に、 ユーザ映像管理データベース 4は、 デ一夕 I Dが zzzzzである素材デ一 夕を所有している使用者のユーザ I Dが aaaaaであり、 データ I Dが zzzzzである 素材データを格納しているファイルが記録されているディ レク ト リが user¥aaaaa ¥movie2であり、 デ一夕 I Dが zzzzzである素材データを格納しているファイルの フアイル名が travel . movであり、 データ I Dが zzzzzである素材データのタイ トル が旅であり、 データ I Dが zzzzzである素材デ一夕のカテゴリが旅であり、 及び、 データ I Dが zzzzzである素材データの紹介文が ******であることを示すデータ、 並びに他の利用者にその素材データの利用を許可することを示す 1である共有フ ラグ、 その素材データを他の利用者が利用するとき有料であることを示す 1であ る有料フラグ、 及びその素材データを利用する料金が 200円であることを示すデ一 夕を格納している。
他の利用者が、 料金が 200円に設定された素材データを編集に利用したとき、 他 の利用者のサービス利用料には、 200円が加算され、 その素材データを所有してい る利用者のサ一ビス利用料から、 200円が減算される。 ただし、 サービス利用料は、 0又はプラスの範囲の値で、 マイナスの値にはならない。
なお、 料金はマイナスの値とすることが可能である。 使用者が、 例えば、 宣伝 用の動画像などの素材デ一夕にマイナスの料金を設定した場合、 他の使用者がそ の素材データを使用すると、 他の使用者のサービス利用料は減少し、 使用者のサ —ビス利用料は増加する。 すなわち、 使用者は、 他の使用者に料金を支払って、 他の使用者に宣伝用の動画像などを利用させることができる ώ また、 共有している素材データを利用すると、 使用者及び他の使用者に所定の ポイントが加算又は減算されるようにしてもよい。 この場合、 動画編集用サ一バ 3の管理者は、 例えば、 図示せぬ W e bサーバでパーソナルコンピュータ 1の使 用者の要求を受け付けて、 このポィントを使用者が所望するサービス又は商品と 交換する。
更に、 ユーザ映像管理データベース 4は、 課金の処理のため、 ュ一ザ I Dに対 応させて、 使用者のクレジット番号を記録するようにしてもよい。
図 5は、 共有映像管理データベース 5が記録しているパーソナルコンビュー夕 1— 1又は 1 _ 2などの使用者を特定するユーザ I D、 及びデータ I Dなどのデ 一夕の例を示す図である。 共有映像管理データベース 5は、 共有フラグが 1に設 定された素材データ (すなわち、 共有されている素材データ) を特定するデータ I D、 その素材データの所有者を特定するユーザ I D、 及びその素材データを他 の利用者が利用するとき有料か否かを示す有料フラグなどを記録している。
図 5の例において、 共有映像管理データべ一ス 5は、 データ I Dが yyyyyである 素材データの所有者のュ一ザ I Dが aaaaaであり、 及びその素材データを他の利用 者が利用するとき無料であることを示す 0である有料フラグを格納している。 共有映像管理データベース 5は、 データ I Dが zzzzzである素材デ一夕の所有者 のユーザ I Dが aaaaaであり、 及びその素材データを他の利用者が利用するとき有 料であることを示す 1である有料フラグを格納している。
共有映像管理データベース 5は、 デ一夕 I Dが hhhhhである素材デ一夕の所有者 のユーザ I Dが cccccであり、 及びその素材データを他の利用者が利用するとき有 料であることを示す 1である有料フラグを格納している。
次に、 パーソナルコンピュータ 1が動画編集用サーバ 3に動画像、 静止画像、 又は音声などの素材データを編集させるときに、 パーソナルコンピュータ 1が表 示する画面について説明する。
図 6は、 パーソナルコンピュータ 1が、 イン夕一ネット 2を介して、 動画編集 用サーバ 3に接続したとき、 ブラウザプログラム 1 1が表示させる初期画面を示 す図である。
初期画面には、 ユーザ I Dを入力するフィールド 1 0 1、 パスヮ一ドを入力す るフィールド 1 0 2、 及び口グインの要求を動画編集用サーバ 3に送信させるボ タン 1 0 3が配置されている。 図 6に示す例において、 フィ一ルド 1 0 1には、 パーソナルコンビユー夕 1の使用者を特定するユーザ I Dである" ano" が入力さ れ、 フィ一ルド 1 0 2には、 パーソナルコンビユー夕 1の使用者のパスヮードで ある" (実際には、 数字、 アルファペッ ト、 又は特殊文字などからなる文 字列) が入力されている。
図 6に示す状態から、 ポタン 1 0 3がクリックされると、 ブラウザプログラム 1 1は、 パーソナルコンビユー夕 1に、 インタ一ネッ ト 2を介して、 入力された ユーザ I D及びパスヮードと共に、 口グインの要求を動画編集用サーバ 3に送信 させる。
ログインが要求されたとき、 動画編集用サーバ 3は、 受信したユーザ I D及び パスヮードが、 ユーザ情報管理データベース 7に登録されているか否かを判定す る。 ユーザ I D及びパスワードがユーザ情報管理データベース 7に登録されてい ないと判定された場合、 動画編集用サーバ 3は、 ログインできない旨を示す画面 (図示せず) を表示させるデータをインターネット 2を介して、 パーソナルコン ビュー夕 1に送信し、 それ以後の動画の編集の処理を実行しない。
受信したユーザ I D及びパスヮ一ドが、 ユーザ情報管理データベース 7に登録 されていると判定された場合、 動画編集用サーバ 3は、 ユーザ映像管理データべ —ス 4からュ一ザ I Dに対応して記録されている素材データを読み出して、 サム ネイルを生成して (素材データが動画像のデータの場合、 最初の画面などからサ ムネイルが生成される。 生成の処理は、 デ一夕の方式に対応して実行され、 例え ば、 JPEG (Joint Photographic Experts Group) 方式のデータの場合、 ファイル のへヅダに格納されているサムネイルのデータを抽出する。 ) 、 サムネイルを表 示させる画面のデ一夕をパーソナルコンピュータ 1に送信する。
図 7は、 パーソナルコンビユー夕 1が使用者の所有する素材データに対応する サムネイルを表示させる画面のデ一夕を受信したとき、 ブラウザプログラム 1 1 が表示させるユーザ映像サムネイル表示画面を示す図である。
ユーザ映像サムネイル表示画面には、 サムネイルを表示させるフィールド 1 1 1、 動画像、 静止画像、 又は音声のデータなどを動画編集用サーバ 3に送信させ る処理を実行させるためのポタン 1 1 2、 ユーザ映像管理デ一夕ベース 4に記録 されている素材データの属性を編集する処理を実行させるためのボタン 1 1 3、 及び動画像の編集を動画編集用サーバ 3に実行させる処理を実行するポ夕ン 1 1 4などが配置されている。
フィールド 1 1 1には、 更に、 1つの素材データに対応するサムネイルをその 属性に対応するアイコンと共に表示するサムネイル表示フィ一ルド 1 2 1— 1乃 至 1 2 1— 9が配置されている。
図 7に示す例において、 ブラウザプログラム 1 1は、 サムネイル表示フィール ド 1 2 1— 1に、 サムネイルに対応する素材データが静止画像のデ一夕であるこ とを示すカメラを模したアイコンと共に、 静止画像である素材データのサムネィ ルを表示する。
ブラウザプログラム 1 1は、 サムネイル表示フィールド 1 2 1— 2に、 サムネ ィルに対応する素材デ一夕が動画画像のデータであることを示すビデオカメラを 模したアイコン、 動画像の再生を指示するアイコン、 及び動画像の再生を停止さ せるアイコンと共に、 動画像である素材デ一夕のサムネイルを表示する。
同様に、 ブラウザプログラム 1 1は、 サムネイル表示フィールド 1 2 1 _ 3乃 至 1 2 1— 9に、 素材データのサムネイルと共に、 素材データの方式に対応した アイコンを表示する。
動画像、 静止画像、 又は音声のデータなどを動画編集用サーバ 3に送信させる 処理を実行させるためのボタン 1 1 2がクリックされたとき、 ブラウザプログラ ム 1 1は、 図 8に示すダイアログボックスを表示する。 図 8に例を示すダイァロ グボックスには、 送信するデ一夕が格納されているファイルのファイル名を入力 するフィールド 1 3 1、 及び送信を開始させるボタン 1 3 2が配置されている。 例えば、 図 8に示すように、 フィールド 1 3 1にファイル名" golf .mov" が入 力されている場合、 ポタン 1 3 2がクリ ックされると、 ブラウザプログラム 1 1 は、 ファイル名が" golf .mov" であるファイルに格納されているデータを、 例え ば、 HTTP (HyperText Transfer Protocol ) の手続きに基づき、 インターネヅ ト 2 を介して、 動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 インタ一ネッ ト 2を介して、 パーソナルコンピュータ 1から受信したデータを、 パーソナルコンビュ一夕 1の使用者が所有する素材デ 一夕としてユーザ映像管理デ一夕ペース 4に記録させる。
図 7に示す、 サムネイル表示フィ一ルド 1 2 1一 1乃至 1 2 1— 9のいずれか を選択して、 ユーザ映像管理データベース 4に記録されている素材データの属性 を編集する処理を実行させるためのポタン 1 1 3がクリックされたとき、 ブラウ ザプログラム 1 1は、 選択したサムネイル表示フィ一ルド 1 2 1— 1乃至 1 2 1 - 9に対応する素材データの属性を編集するための、 ダイアログボックスを表示 する。
図 9は、 サムネイルに対応する素材デ一夕の属性を編集するための、 ダイァロ グボックスの例を示す図である。 図 9に例を示すダイアログボックスには、 素材 データのサムネイルを表示するフィ一ルド 1 4 1、 素材データのタイ トルを入力 するためのフィールド 1 4 2、 素材データのカテゴリを入力するためのフィ一ル ド 1 4 3、 素材データの紹介文を入力するためのフィ一ルド 1 4 4、 素材データ を共有する設定を選択するポ夕ン 1 4 5— 1、 素材デ一夕を共有しない設定を選 択するポタン 1 4 5— 2 (ポタン 1 4 5— 1及びポタン 1 4 5— 2は、 いずれか 1つが選択される) が配置されている。
更に、 図 9に例を示すダイアログボックスには、 共有した素材データの利用を 有料に設定するボタン 1 4 6— 1、 共有した素材デ一夕の利用を無料に設定する ポタン 1 4 6— 2 (ポタン 1 4 6— 1及びポタン 1 4 6— 2は、 いずれか 1つが 選択される) 、 共有した素材データの利用を有料に設定したときの料金を入力す るフィールド 1 4 7、 及び素材デ一夕の属性の送信を開始させるボタン 1 4 8が 配置されている。
図 9のダイアログボックスの例において、 フィールド 1 4 2には、 素材データ のタイ トルとして" 旅" が入力され、 フィ一ルド 1 4 3には、 素材デ一夕の力テ ゴリとして" 旅" が入力され、 フィールド 1 4 4には、 素材データの紹介文とし て" 秋の遠足" が入力されている。 また、 図 9のダイアログボックスの例におい て、 素材データを共有する設定を選択するボタン 1 4 5— 1が選択され、 共有し た素材データの利用を有料に設定するボタン 1 4 6— 1が選択され、 フィ一ルド 1 4 7には、 利用料金として 200円が入力されている。 図 9に示す状態から、 ポタン 1 4 8がクリックされると、 ブラウザプログラム 1 1は、 パーソナルコンピュー夕 1 に、 フィールド 1 4 2乃至フィールド 1 4 7 の入力又は設定に対応した属性を、 インターネッ ト 2を介して、 動画編集用サ一 バ 3に送信させる。 動画編集用サーバ 3は、 属性を受信したとき、 ユーザ映像管 理データベース 4に、 図 4を参照して説明したように、 その素材データのデータ I Dに対応させて、 属性を格納させる。
その素材データを共有する旨の属性を受信したとき、 動画編集用サーバ 3は、 素材データに対応するデ一夕 I D、 その素材データを所有する使用者のュ一ザ I D、 及びその素材データの利用が有料か否かを示す有料フラグを、 共有映像管理 データベース 5に格納させる。
図 7に示す、 動画像の編集を動画編集用サーバ 3に実行させる処理を実行する ボタン 1 1 4がクリックされたとき、 ブラウザプログラム 1 1は、 図 1 0に例を 示す、 編集画面を表示する。 編集画面には、 動画編集用サーバ 3に、 ユーザ映像 管理データベース 4から素材データの口一ドを開始させる読み込みポ夕ン 1 5 1 が配置されている。
読み込みポタン 1 5 1がクリ ックされたとき、 ブラウザプログラム 1 1は、 パ 一ソナルコンビユー夕 1に、 インターネッ ト 2を介して、 素材データのロードを 要求するデータを送信させる。 素材データのロードを要求するデータを受信した 動画編集用サーバ 3は、 ユーザ映像管理データベース 4からパーソナルコンビュ —夕 1の使用者が所有する動画像、 静止画像、 又は音声などの素材データなどを 読み出して、 読み出した素材デ一夕に対応するサムネイルを生成して、 サムネィ ルを表示させるデニ夕をィンタ一ネッ ト 2を介して、 パーソナルコンピュータ 1 に送信する。
サムネイルを表示させるデータを受信したパーソナルコンビユー夕 1は、 例え ば、 図 1 1に示す編集素材選択画面を表示する。
編集素材選択画面には、 1つの素材データに対応するサムネイルを素材データ の内容に対応するアイコンと共に表示するサムネイル表示フィ一ルド 1 6 1 _ 1 乃至 1 6 1— 9、 選択した素材デ一夕を編集用テンポラリスペース 6の作業用の スペースに口一ドさせるポタン 1 6 2、 パーソナルコンビュ一夕 1の使用者が所 有する全ての素材デ一夕を編集用テンポラリスペース 6の作業用のスペースに口 —ドさせるボタン 1 6 3、 及び共有されている素材データのサムネイルを表示さ せる処理を開始するボタン 1 6 4が配置されている。
例えば、 サムネイル表示フィールド 1 6 1— 3、 サムネイル表示フィールド 1 6 1 - 5 , 及びサムネイル表示フィ一ルド 1 6 1— 7が選択されている場合、 ポ タン 1 6 2がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナルコン ビュー夕 1に、 サムネイル表示フィールド 1 6 1— 3に対応する素材データ、 サ ムネイル表示フィールド 1 6 1 _ 5に対応する素材デ一夕、 及びサムネイル表示 フィ一ルド 1 6 1— 7に対応する素材データの口一ドの要求を、 イン夕一ネッ ト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 サムネイル表示フィールド 1 6 1— 3に対応する素材 データ、 サムネイル表示フィ一ルド 1 6 1— 5に対応する素材データ、 及びサム ネイル表示フィールド 1 6 1— 7に対応する素材データのロードの要求を受信し たとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 サムネィ ル表示フィールド 1 6 1— 3に対応する素材データ、 サムネイル表示フィ一ルド 1 6 1 - 5に対応する素材データ、 及びサムネイル表示フィ一ルド 1 6 1— 7に 対応する素材データをユーザ映像管理データベース 4から読み出して、 編集用テ ンポラリスペース 6の編集用のメモリ空間にロードする (動画編集用サーバ 3が 編集可能な状態に記録する) 。
サムネイル表示フィ一ルド 1 6 1— 3に対応する素材デ一夕、 サムネイル表示 フィ一ルド 1 6 1— 5に対応する素材データ、 及びサムネイル表示フィールド 1 6 1 - 7に対応する素材データをュ一ザ映像管理データベース 4からロードした とき、 動画編集用サーバ 3は、 サムネイル表示フィ一ルド 1 6 1— 3に対応する 素材デ一夕、 サムネイル表示フィ一ルド 1 6 1— 5に対応する素材データ、 及び サムネイル表示フィールド 1 6 1— 7に対応する素材データをロードした旨を示 すデ一夕を、 イン夕一ネヅ ト 2を介して、 パーソナルコンピュータ 1に送信する c サムネイル表示フィ一ルド 1 6 1— 3に対応する素材デ一夕、 サムネイル表示 フィ一ルド 1 6 1— 5に対応する素材データ、 及びサムネイル表示フィ一ルド 1 6 1 - 7に対応する素材デ一夕をロードした旨を示すデータを受信したどき、 パ —ソナルコンピュータ 1は、 図 1 2に示すように、 ロードした素材データのサム ネイルを編集画面の所定の領域に表示させる。
ボタン 1 6 3がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナル コンピュータ 1 に、 使用者が所有する全ての素材データのロードの要求を、 イン 夕ーネッ ト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 使用者が所有する全ての素材データのロードの要求を 受信したとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 使 用者が所有する全ての素材データをユーザ映像管理データベース 4から読み出し て、 編集用テンポラリスべ一ス 6の編集用のメモリ空間にロードする。
使用者が所有する全ての素材データをユーザ映像管理デ一夕べ一ス 4からロー ドしたとき、 動画編集用サーバ 3は、 使用者が所有する全ての素材データを口一 ドした旨を示すデータを、 イン夕一ネヅ ト 2を介して、 パーソナルコンピュータ 1に送信する。
使用者が所有する全ての素材データをロードした旨を示すデータを受信したと き、 パーソナルコンピュータ 1は、 ロードしたデ一夕のサムネイルを編集画面の 所定の領域に表示させる。
ボタン 1 6 4がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナル コンピュータ 1に、 共有されている素材デ一夕のサムネイルの要求を、 イン夕一 ネッ ト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 共有されている素材デ一夕のサムネイルの要求を受信 したとき、 共有映像管理データベース 5から共有されている素材データのデータ I Dを読み出す。
動画編集用サーバ 3は、 編集用テンポラリスペース 6に編集用のメモリ空間を 確保し、 共有映像管理データベース 5から読み出したデータ I Dに対応する素材 データを、 ユーザ映像管理データベース 4から読み出して、 サムネイルを生成し て、 サムネイルを表示させるデータをパーソナルコンピュータ 1に送信する。 図 1 3は、 パーソナルコンピュータ 1が共有されている素材デ一夕のサムネィ ルを表示させるデ一夕を受信したとき、 ブラウザプログラム 1 1が表示させる共 有映像サムネイル表示画面を示す図である。 共有映像サムネイル表示画面には、 共有されている 1つの素材デ一夕に対応するサムネイルを素材デ一夕の内容に対 応するアイコンと共に表示するサムネイル表示フィ一ルド 1 7 1— 1乃至 1 7 1 - 9、 及び選択した素材データを動画編集用サーバ 3にロードさせるポタン 1 7 2が配置されている。
例えば、 サムネイル表示フィ一ルド 1 7 1— 1、 サムネイル表示フィ一ルド 1 7 1 - 4 , 及びサムネイル表示フィールド 1 7 1— 6が選択されている場合、 ポ タン 1 7 2がクリ ックされたとき、 ブラウザプログラム 1 1は、 パーソナルコン ビュー夕 1に、 サムネイル表示フィ一ルド 1 7 1— 1に対応する素材データ、 サ ムネイル表示フィールド 1 7 1 一 4に対応する素材データ、 及びサムネイル表示 フィ一ルド 1 7 1— 6に対応する素材デ一夕のロードの要求を、 インタ一ネッ ト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 サムネイル表示フィ一ルド 1 7 1— 1に対応する素材 データ、 サムネイル表示フィ一ルド 1 7 1— 4に対応する素材データ、 及びサム ネイル表示フィ一ルド 1 7 1— 6に対応する素材データの口一ドの要求を受信し たとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 サムネィ ル表示フィ一ルド 1 7 1— 1に対応する素材デ一夕、 サムネイル表示フィ一ルド 1 7 1 - 4に対応する素材データ、 及びサムネイル表示フィ一ルド 1 7 1— 6に 対応する素材デ一夕をユーザ映像管理データベース 4から読み出して、 編集用テ ンボラリスペース 6の編集用のメモリ空間にロードする。
サムネイル表示フィールド 1 7 1— 1に対応する素材データ、 サムネイル表示 フィ一ルド 1 7 1— 4に対応する素材データ、 及びサムネイル表示フィ一ルド 1 7 1— 6に対応する素材データをロードしたとき、 動画編集用サーバ 3は、 サム ネイル表示フィ一ルド 1 7 1— 1に対応する素材データ、 サムネイル表示フィ一 ルド 1 7 1— 4に対応する素材データ、 及びサムネイル表示フィールド 1 7 1— 6に対応する素材データを口一ドした旨を示すデータを、 インタ一ネッ ト 2を介 して、 パーソナルコンピュータ 1に送信する。
サムネイル表示フィールド 1 7 1— 1 に対応する素材デ一夕、 サムネイル表示 フィ一ルド 1 7 1— 4に対応する素材デ一夕、 及びサムネイル表示フィ一ルド 1 7 1 - 6に対応する素材デ一夕をロードした旨を示すデータを受信したとき、 ノ —ソナルコンピュータ 1は、 ロードした素材デ一夕のサムネイルを編集画面の所 定の領域に表示させる。
編集画面には、 図 1 4に示すように、 更に、 編集の素材となるテキストを入力 するウィンドウ (図 1 4の例では、 テキスト" Personal Cast ing" が入力されて いる。 ウィンドウの詳細は、 図 2 8を参照して後述する) などが配置されている t 次に、 編集画面の詳細について説明する。
図 1 5は、 編集画面の一部の表示例を表している。 同図に示すように、 編集画 面の左上方には、 素材トレィ 2 0 1が表示される。 素材トレィ 2 0 1には、 図 1 0を参照して説明した、 読み込みボタン 1 5 1が表示されている。 なお、 素材ト レイ 2 0 1は、 図 1 6に拡大して示されている。
編集用テンポラリスペース 6の編集用のメモリ空間にロードされ、 動画像の編 集対象とされた動画像又は静止画像などの素材データは、 素材トレィ 2 0 1に素 材クリッブ 2 1 1として表示される。 図 1 6に拡大して示されているように、 素 材クリップ 2 1 1の右側には、 その素材データのタイ トル、 動画像と静止画像の 区別、 並びに、 再生時間が表示されている。 スクロ一ルバ一 2 1 2は、 素材クリ ップ 2 1 1の数が多くなり、 素材ト レィ 2 0 1の範囲内にすべてを表示できなく なった場合に、 素材クリヅブ 2 1 1をスクロールさせるとき、 使用者により操作 される。
なお、 編集の対象 (編集用テンポラリスペース 6にロードされた素材データ。 以下、 素材クリップと称する。 ) とすることが可能なデータのファイルは、 図 1 7に示すような .M0V, .AVIといった拡張子を有する動画像のファイル、 .BMP , . G IF , .JPG, . PNG, . PCTといった拡張子を有する静止画像のファイル、 又は .WAV, . AIFといった拡張子を有する音楽のファイルとすることができる。
素材トレィ 2 0 1の右側には、 再生画面 2 2 1が表示されている。 使用者によ り、 図示せぬボインティングデバイスが操作され、 素材トレイ 2 0 1に表示され ている素材クリップ 2 1 1のうち、 所定のものが指定され、 再生ボタン 2 3 1が 操作されると、 その指定された画像が、 再生画面 2 2 1に再生表示される。 この 時、 再生が進むにつれて、 再生位置表示ポタン 2 3 5は、 左側から右側に再生位 置に応じて、 その表示位置が移動する。 図 1 8にも示すように、 ポインタ 2 3 4 Lにより開始点を指定し、 ポインタ 2 3 4 Rにより、 終了点を指定することで、 動画像像の所定の範囲をトリミングす ることができる。 トリミングされた場合、 そのファイルのうちの、 トリミングさ れた画像データだけが、 実質的な編集対象の画像とされる。
指定範囲再生ボタン 2 3 2が操作されると、 このようにしてトリミングされた 範囲だけが再生画面 2 2 1に表示される。 巻戻しポ夕ン 2 3 6が操作された場合、 再生画面 2 2 1の表示画像が時間的に、 新しい画像から古い画像の方向に卷戻し 表示される。 早送りポタン 2 3 7が操作された場合には、 再生画面 2 2 1に表示 されている画像が早送りされる。
ストーリ再生モードの状態でモ一ドボ夕ン 2 3 3が操作されると、 モードが編 集モードに変更され、 編集モードの状態において、 モードポタン 2 3 3が操作さ れると、 モードは、 ストーリ再生モードに変更される。
編集モードにおいて、 例えば、 再生ポタン 2 3 1が操作されると、 その時素材 トレィ 2 0 1の中から指定されている素材クリップ 2 1 1が再生画面 2 2 1に表 示されるが、 ストーリ再生モードが設定されている状態において、 再生ポタン 2 3 1が操作されると、 後述するように、 出力トレィ 2 9 1に表示されている (編 集用テンポラリスペース 6に記録されているデータに対応する) 、 自動又は手動 で編集されたストーリ (シナリオ) が、 始めから終わりまで再生される。
マニュアルで (自動編集ではなく) 編集処理を行うとき、 使用者は、 素材トレ ィ 2 0 1に表示されている素材クリップ 2 1 1の中から、 所定のものを選択し、 図 1 9に示す画像トラック 3 0 1上の複数の画像表示部 3 0 1 Aの任意の位置に ドラッグアンドドロップすることで、 所望のシナリオ (スト一リ) を作成する。 一旦所定の画像表示部 3 0 1 Aにドラッグアンドドロップした画像 (素材クリヅ プ) は、 さらに他の位置の画像表示部 3 0 1 A上にドラヅグアンドドロップする ことで移動させることが可能である。
出力ボタン 3 0 4は、 マニュアルで編集されたスト一リに対応する動画像をュ 一ザ映像管理データベース 4に保存するとき、 操作される。
使用者は、 素材トレィ 2 0 1上に音楽データのファイルが存在する場合には、 そのファイルのアイコン (素材クリップ 2 1 1 ) を出力トレィ 2 9 1上の B G M トラック 3 0 2にドラッグアンド ドロップすることで、 その音声を B G Mとして 対応させることができる。 B G Mトラック 3 0 2上の音楽情報が割り当てられた 長さは、 その音楽情報の長さに対応している。 従って、 その音楽情報の長さが短 い場合には、 さらに別の音楽情報を B G Mドラッグ 3 0 2上にドラッグアン ド ド ロヅプすることで割り当てることができる。
再生画面 2 2 1の右側には、 ポリュームポタン 2 4 1、 色調ボタン 2 4 2、 及 び再生速度ボタン 2 4 3が表示されている。 ボリュ一ムポタン 2 4 1が操作され ると、 図 2 0に示すようなウィン ドウ 3 3 1がボリュームボタン 2 4 1の下に表 示される。 使用者は、 調整バー 3 3 2を操作することで、 編集対象とされている 音声の出力時の音量を調整することができる。
色調ボタン 2 4 2が操作されると、 図 2 1に示すようなウィン ドウ 3 4 1が、 色調ポタン 2 4 2の下に表示される。 この例においては、 使用者は、 調整バー 3 4 2を操作することで、 X線、 ハイコン トラス ト、 そのまま、 セピア、 又はモノ クロのうちのいずれかの色調を選択することができる。
再生速度ポタン 2 4 3が操作されると、 図 2 2に示すようなウィ ン ドウ 3 5 1 が、 再生速度ボタン 2 4 3の下に表示される。 使用者は、 調整バー 3 5 2を操作 することで、 画像の再生速度を速く したり、 遅く したり、 調整することができる 再生速度ボタン 2 4 3の下側には、 エフェク ト表示ボタン 2 4 4が表示されて いる。 使用者は、 後述する図 2 3に表示されている選択ポタンアイコン 3 6 4、 又は図 2 4に表示されている選択ポタンアイコン 3 6 2を、 エフヱク ト表示ポ夕 ン 2 4 4にドラッグアンド ドロップすることで、 そのエフェク トを、 再生画面 2 2 1に表示されている素材に対して、 割り当てることができる。
ボリュームポタン 2 4 1乃至エフヱク ト表示ポ夕ン 2 4 4の右側には、 特殊効 果トレイ 2 6 1が表示されている。 この特殊効果トレイ 2 6 1には、 タグ 2 7 1 - 1乃至 2 7 1— 4が表示されている。
タグ 2 7 1— 2が選択されると、 図 2 3に示されるように、 テキス トウイン ド ゥが表示される。 このウィ ンドウには、 編集対象とされている画像 3 6 1が表示 される。 フォン トポタン 3 6 2は、 エフェク トを付与するテキス トのフォン トを 選択するとき操作される。 テキス ト入力ウイン ドウ 3 6 3には、 使用者がキ一ポ —ド 4を操作することで入力したテキス トが表示される。 選択ボタンアイコン 3 6 4は、 テキス ト (文字列) に対して付加するエフヱク トを選択するとき操作さ れる。 スクロールバ一 3 6 5は、 選択ボタンアイコン 3 6 4をスクロールさせる とき操作される。
選択ボタンアイコン 3 6 4のうち、 所定のものをエフェク ト表示ポタン 2 4 4 上にドラッグアンド ドロップすることで、 テキス ト入力ウインドウ 3 6 3にその 時入力表示されているテキス 卜に対して、 選択ポタンアイコン 3 6 4で選択した テキス トエフェク ト (テキストアニメーション) を付加することができる。 選択 ボタンアイコン 3 6 4をエフェク ト表示ポタン 2 4 4にドラッグアンド ドロップ した後、 再生ボタン 2 3 1 を操作すると、 選択したテキス トエフヱク トを付加し た画像が、 再生画面 2 2 1に直ちに表示される。 このようにして、 使用者は、 テ キス トエフェク トをリアルタイムで確認することができる。
図 2 3の例においては、 「斜め合体」 のテキス トアニメ一ションが再生画面 2 2 1に表示されている。
図 2 4は、 タグ 2 7 1— 3が選択された場合の表示例を表している。 このタグ 2 7 1 - 3が選択されると、 同図に示すように、 エフェク トウィン ドウが表示さ れる。 このウィ ンドウには、 編集対象とされている画像 3 8 1が表示されるとと もに、 その下方にアニメーションエフェク トを選択するための選択ボタンアイコ ン 3 6 2が表示される。 スクロ一ルバ一 3 6 3は、 選択ボタンアイコン 3 6 2を スクロールさせるとき操作される。
この場合にも、 選択ボタンアイコン 3 6 2のうち、 所定のものをエフェク ト表 示ポタン 2 4 4上にドラヅグアン ド ドロヅプすることで、 所定のアニメーション エフェク トを選択することができる。 この選択を行った後、 再生ボタン 2 3 1が 操作されると、 再生画面 2 2 1にアニメーションエフエク トが付加された画像が リアルタイムで表示される。 図 2 4の例においては、 「ときめき」 のアニメ一シ ヨンエフェク トが表示されている。
図 2 5は、 タグ 2 7 1— 4が選択された場合の表示例を表している。 この場合、 同図に示すように、 トランジシヨンウィ ン ドウが表示される。 このウィ ンドウに は、 選択ポタンアイコン 3 9 1が表示され、 使用者は、 複数の選択ポ夕ンアイコ ン 3 9 1の中から所定のものを選択することができる。 この選択が行われた場合、 表示部 3 9 3にその選択されたトランジシヨンに対応する模式的な画像が表示さ れる。 スクロールバ一3 9 2が操作された場合、 選択ポタンアイコン 3 9 1がス クロールされる。
使用者は、 所定の選択ポタンアイコン 3 9 1 を選択した後、 それを図 2 6に示 す画像トラヅク 3 0 1のトランジション表示部 3 0 1 Bにドラッグアン ドドロッ プすることで、 その前後に隣接する画像表示部 3 0 1 Aに表示されている画像 (素材クリ ップ) に対して トランジシヨンを付加することができる。
例えば、 ワイプのトランジシヨンが設定された場合、 図 2 7に示すように、 図 の左側に表示されている画像が徐々に右側に移動しながら、 次第に右側に表示さ れている画像を隠すようにして、 トランジシヨンが行われる。
タグ 2 7 1— 1が選択されると、 図 2 8に拡大して示されているように、 自動 編集のためのシヱ一力ウイ ンドウが表示される。 このシヱ一カウィ ンドウには選 択ポタン 2 8 1— 1乃至 2 8 1— 5が表示されている。 この選択ボタン 2 8 1— 1乃至 2 8 1— 5には、 それそれ、 所定のシナリオ (ス トーリ) が予め対応され ている。 各シナリオには、 それそれ予め設定された所定の音楽が対応されており、 その音楽は、 図 2 8の最も左側の選択ポ夕ン 2 8 1— 1 に対応するものが最もテ ンポの遅いものとされ、 最も右側の選択ポタン 2 8 1— 5に対応するものが、 最 も速く激しいものとされている。 それらの間の選択ボタン 2 8 1— 2乃至 2 8 1 一 4に対応する音楽は、 それそれ、 その中間のテンポの音楽とされている。
具体的には、 選択ポタン 2 8 1— 1にはアンビエン ト音楽 (環境音楽) が、 選 択ポタン 2 8 1— 2にはピアノ曲が、 選択ボタン 2 8 1— 3にはジャズ音楽が、 選択ボタン 2 8 1— 4にはヒヅプホップ音楽が、 そして選択ポ夕ン 2 8 1— 5に はテクノ調音楽が、 それそれ対応付けられている。
従って、 これらの音楽に対応して、 選択ボタン 2 8 1— 1に対応するシナリオ を構成するシーンの数は比較的少ないもの (シーンの変化数が少ないもの) とさ れている。 これに対して、 選択ボタン 2 8 1— 5に対応されているシナリオは、 そのシーン数が多いもの (シーンの変化の回数が多いもの) とされている。 なお、 選択ポタン 2 8 1— 1乃至 2 8 1— 5に対応しているシナリオの長さは、 全て同 一とされ、 この例においては、 3 0秒とされている。
ループポタン 2 8 2は、 自動編集により生成する 3 0秒のシナリォが、 繰り返 し再生されることを前提とするものとするとき、 使用者により操作される。 テキ ストシェイクボタン 2 8 3は、 テキスト (文字) をシェイクする時、 使用者によ り操作される。 このテキストシェイクポタン 2 8 3が操作されると、 ウィンドウ 2 8 4が表示され、 使用者は、 このウインドウ 2 8 4に、 図示せぬキ一ポ一ドを 操作することで、 編集対象とする (テキストシヱイクする) テキスト (文字列) を入力することができる。 この例においては、 「頑張ろう」 、 「順子ちやん」 、 「ハッピー! !」 の 3つの文字列が入力表示されている。
シヱイクポタン 2 8 5は、 シェイク (自動編集) を鬨始するとき、 使用者によ り操作される。 動画編集用サーバ 3が実行するシヱイク (自動編集) の処理の詳 細については、 図 4 1乃至図 4 3のフローチャートを参照して後述する。
シェイクポタン 2 8 5がクリックされて、 動画編集用サ一パ 3がシェイクを実 行しているとき、 パーソナルコンビユー夕 1は、 図 2 9に例を示す、 動画編集用 サーバ 3がシエイクを実行中であることを示す画面を表示する。 動画編集用サ一 バ 3のシェイクが終了したとき、 パーソナルコンビユー夕 1は、 図 3 0に例を示 す、 動画編集用サーバ 3のシエイクが終了したことを示す画面を表示する。
動画編集用サーバ 3のシエイクが終了したことを示す画面を表示している場合、 図示せぬキーボードが操作されたとき、 パーソナルコンピュータ 1は、 図 3 1に 例を示す、 シェイクされた画像を再生、 又は保存するための確認画面を表示させ る。
図 3 1に示す確認画面には、 シェイクされた画像の再生を指示するポタン 4 0 1、 編集用テンポラリスペース 6に記録されているシエイクされた画像の使用者 映像管理データベース 4への記録を指示するボ夕ン 4 0 2、 及び再度シエイクを 実行するため図 1 4に例を示す状態に戻るボタン 4 0 3が配置されている。
次に、 パーソナルコンビユー夕 1及び動画編集用サーバ 3による処理について 説明する。
図 3 2は、 パーソナルコンビユー夕 1及び動画編集用サーバ 3による画像の編 集の全体の処理を説明するフ口一チャートである。 ステップ S 1 1において、 動 画編集用サーバ 3の動画編集用プログラム 1 2は、 ィン夕ーネッ ト 2を介して、 パ一ソナルコンピュータ 1から送信された、 ユーザ I D及びパスヮ一ドのデ一夕 を基に、 ログインの処理を実行する。 ステップ S 1 1の処理において、 パ一ソナ ルコンビユー夕 1から送信された、 ユーザ I D及びパスヮ一ドのデータが正当で ないと判定された場合、 ステップ S 1 2以降の処理は、 スキップされ、 処理は終 了する。
ステップ S 1 1の処理において、 パーソナルコンピュータ 1から送信された、 ュ一ザ I D及びパスヮ一ドのデ一夕が正当であると判定された場合、 ステップ S 1 2に進み、 パーソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集 用サーバ 3から使用者が所有する素材データのサムネイルを受信して、 サムネィ ルを表示させる。
ステップ S 1 3において、 ポタン 1 1 2がクリ ックされたとき、 パーソナルコ ンピュ一夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に素材デ一夕を アップロードさせる処理を実行させる。
ステップ S 1 4において、 ボタン 1 1 3がクリ ッククリ ックされたとき、 パ一 ソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 素 材デ一夕の属性の設定の処理を実行させる。
ステップ S 1 5において、 ボタン 1 6 2がクリ ックされたとき、 パーソナルコ ンビュ一夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ュ一ザ映像 管理データべ一ス 4に記録されている、 使用者が所有する素材データを口一ドさ せる処理を実行させる。
ステップ S 1 6において、 ポタン 1 7 2がクリ ックされたとき、 パーソナルコ ンビュー夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ユーザ映像 管理データベース 4に記録されている、 共有している素材データを口一ドさせる 処理を実行させる。
ステップ S 1 7において、 シェイクポタン 2 8 5がクリ ックされたとき、 パ一 ソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ス テヅプ S 1 5又はステップ S 1 6の処理でロードした素材デ一夕を基に、 自動編 集の処理を実行させる。 ステップ S 1 8において、 ポタン 4 0 1がク リ ヅクされたとき、 パ一ソナルコ ンピュ一夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ステップ S 1 7の自動編集の処理で生成した動画像を送信させ、 パーソナルコンピュータ 1 が動画像を表示する、 確認の処理を実行する。
ステップ S 1 9において、 ポタン 4 0 2がクリ ックされたとき、 パーソナルコ ンピュータ 1は、 動画編集用サーバ 3に、 編集用テンポラリスペース 6に記録さ れている自動編集の処理で生成された動画像を、 ユーザ映像管理デ一夕ベース 4 に記録させ、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1の要求に対応 して、 パーソナルコンビュ一夕 1の使用者が所有する素材データ、 及び共有して いる素材データなどを基に、 自動編集して、 動画像を生成し、 生成した動画像を ユーザ映像管理データベース 4に、 使用者のュ一ザ I Dに対応させて記録させる ことができる。
次に、 図 3 2のステップ S 1 1の処理に対応する、 ログインの処理の詳細を図 3 3のフローチャートを参照して説明する。 ステップ S 1 1 0 1において、 ブラ ゥザプログラム 1 1は、 図 6に示すボタン 1 0 3がクリ ックされたか否かを判定 し、 ポタン 1 0 3がクリ ヅクされていないと判定された場合、 ポタン 1 0 3がク リ ヅクされるまで、 ステップ S 1 1 0 1の処理を繰り返す。
ステップ S 1 1 0 1 において、 ポタン 1 0 3がクリ ヅクされたと判定された場 合、 ステップ S 1 1 0 2に進み、 ブラウザプログラム 1 1は、 フィ一ルド 1 0 1 に入力されたユーザ I Dを読み取る。 ステップ S 1 1 0 3において、 ブラウザプ ログラム 1 1は、 フィ一ルド 1 0 2に入力されたパスヮ一ドを読み取る。
ステップ S 1 1 0 4において、 ブラウザプログラム 1 1は、 ステップ S 1 1 0 2の処理で読み取ったュ一ザ I D、 及びステップ S 1 1 0 3の処理で読み取った パスワードを、 インタ一ネッ ト 2を介して、 動画編集用サーバ 3に送信する。 ステップ S 2 1 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1が送信したユーザ I D及びパスヮ一ドを受信する。 ステップ S 2 1 0 2 において、 動画編集プログラム 1 2は、 ユーザ情報管理データベース 7に記録さ れているユーザ I D及び対応するパスヮ一ドを基に、 受信したユーザ I D及びパ スヮ一ドが正当であるか否かを判定し、 受信したユーザ I D及びパスワードが正 当であると判定された場合、 ステップ S 2 1 0 3に進み、 ユーザ情報管理デ一夕 ベース 7がュ一ザ I Dに対応して記録されているディ レク トリ情報を基に、 ユー ザ映像管理データベース 4のユーザエリア (例えば、 所定のフォルダ) に口グイ ンして、 処理は終了する。
ステップ S 2 1 0 2において、 受信したユーザ I D及びパスヮードが正当でな いと判定された場合、 ステップ S 2 1 0 3の処理はスキップされ、 動画編集プロ グラム 1 2は、 ユーザ映像管理データべ一ス 4へのアクセスを許可せず、 以下で 説明する処理は実行されない。
以上のように、 パーソナルコンピュータ 1が正当なュ一ザ I D及びパスヮ一ド を送信したとき、 動画編集用サーバ 3は、 ユーザ映像管理データベース 4の所定 のユーザェリアにアクセスできるようになる。 パーソナルコンピュータ 1が正当 でないユーザ I D及びパスワードを送信したとき、 動画編集用サーバ 3は、 以後 の処理を実行せず、 パーソナルコンピュータ 1によるアクセスは拒絶される。 次に、 図 3 2のステップ S 1 2の処理に対応する、 使用者が所有する素材デー 夕のサムネイルの表示の処理の詳細を図 3 4のフローチャートを参照して説明す る。 ステップ S 2 2 0 1において、 動画編集プログラム 1 2は、 ュ一ザ映像管理 データベース 4のログインしたュ一ザェリアから、 ユーザ I Dに対応するフアイ ル名を読み出し、 読み出したファイル名に対応するファイルに格納されている素 材データを読み込む。
ステップ S 2 2 0 2において、 動画編集プログラム 1 2は、 ステップ S 2 2 0 1の処理で読み込んだファイルに格納されているデータを基に、 サムネイルを生 成する。 ステップ S 2 2 0 3において、 動画編集プログラム 1 2は、 ステップ S 2 2 0 2の処理で生成したサムネイルをィン夕一ネヅ ト 2を介してパーソナルコ ンビュ一夕 1に送信する。
ステップ S 1 2 0 1において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したサムネイルを受信する。 ステップ S 1 2 0 2において、 ブラウザブ ログラム 1 1は、 ステップ S 1 2 0 1の処理で受信したサムネイルを、 表示して、 処理は終了する。 このように、 パーソナルコンピュータ 1は、 使用者がユーザ映像管理データべ —ス 4に記録させている動画像のデ一夕などのサムネイルを表示させることがで ぎる。
次に、 図 3 2のステップ S 1 3の処理に対応する、 動画像のデ一夕などのァヅ プロ一ドの処理の詳細を図 3 5のフローチャートを参照して説明する。 ステップ S 1 3 0 1において、 ブラウザプログラム 1 1は、 図 8に示すダイアログボック スを表示する。 ステップ S 1 3 0 2において、 ブラウザプログラム 1 1は、 フィ ールド 1 3 1に入力された、 アップロードする動画像などのデ一夕が格納されて いるファイルのファイル名を読み込む。
ステップ S 1 3 0 3において、 ブラウザプログラム 1 1は、 送信を指示するポ タン 1 3 2がクリ ックされたか否かを判定し、 ポタン 1 3 2がクリ ックされてい ないと判定された場合、 ステップ S 1 3 0 2に戻り、 ファイル名の読み込みの処 理を繰り返す。
ステップ S 1 3 0 3において、 ボタン 1 3 2がクリ ックされたと判定された場 合、 ステップ S 1 3 0 4に進み、 ブラウザプログラム 1 1は、 ステップ S 1 3 0 2の処理で読み取ったファイル名のファイルを開いて、 ファイルに格納されてい るデータをィンタ一ネッ ト 2を介して、 動画編集用サーバ 3に送信する。
ステップ S 2 3 0 1において、 動画編集プログラム 1 2は、 ブラウザプログラ ム 1 1が送信したデータを受信する。 ステップ S 2 3 0 2において、 動画編集プ ログラム 1 2は、 受信したデータにデ一夕 I Dを割り当てて、 ユーザ映像管理デ —夕べ一ス 4に、 ブラウザプログラム 1 1の使用者に対応するユーザエリア (ュ —ザ情報管理データベース 7がユーザ I Dに対応させて記録しているディ レク ト リ情報により特定される) に素材データとして記録させる。
ステップ S 2 3 0 3において、 動画編集プログラム 1 2は、 ユーザ映像管理デ 一夕べ一ス 4に、 図 4を参照して説明した、 生成したデータ I Dと共に、 そのデ —夕 I Dに対応する属性を記録させて、 ユーザ映像管理デ一夕ベース 4に記録さ れているデ一夕を更新させ処理は終了する。
このように、 動画編集用サーバ 3は、 ユーザ映像管理データベース 4に、 パー ソナルコンピュータ 1から受信した動画像のデ一夕などを記録させると共に、 生 成したデータ I D (素材データに対応する) と属性を記録させることができる。 次に、 図 3 2のステップ S 1 4の処理に対応する、 素材データの属性の設定の 処理の詳細を図 3 6のフ口一チヤ一トを参照して説明する。 ステップ S 1 4 0 1 において、 ブラウザプログラム 1 1は、 図 7に示すサムネイル表示フィールド 1 2 1— 1乃至 1 2 1— 9のいずれかを選択して、 属性を編集する素材デ一夕を選 択する。
ステップ S 1 4 0 2において、 ブラウザプログラム 1 1は、 素材データの属性 を編集する処理を実行させるためのポタン 1 1 3がクリ ックされたか否かを判定 し、 ボタン 1 1 3がクリヅクされていないと判定された場合、 ステップ S 1 4 0 1に戻り、 素材データの選択の処理を繰り返す。
ステップ S 1 4 0 2において、 ポタン 1 1 3がクリ ヅクされたと判定された場 合、 ステップ S 1 4 0 3に進み、 ブラウザプログラム 1 1は、 図 9に示すデータ の属性を編集するためのダイアログボックスを表示する。 ステップ S 1 4 0 4に おいて、 ブラウザプログラム 1 1は、 フィ一ルド 1 4 1、 フィールド 1 4 2、 お よびフィ一ルド 1 4 3などに設定された、 素材データの属性を読み取る。
ステップ S 1 4 0 5において、 ブラウザプログラム 1 1は、 属性の送信を開始 させるポ夕ン 1 4 8がクリ ヅクされたか否かを判定し、 属性の送信を開始させる ポタン 1 4 8がクリ ックされていないと判定された場合、 ステップ S 1 4 0 4に 戻り、 素材データの属性を読み込む処理を繰り返す。
ステップ S 1 4 0 5において、 属性の送信を開始させるボタン 1 4 8がクリ ヅ クされたと判定された場合、 ステップ S 1 4 0 6に進み、 ブラウザプログラム 1 1は、 データ I Dと共に、 ステップ S 1 4 0 4の処理で読み取った素材データの 属性を、 インタ一ネッ ト 2を介して、 動画編集用サ一パ 3に送信する。
ステップ S 2 4 0 1において、 動画編集プログラム 1 2は、 パーソナルコンピ ユー夕 1が送信した、 データ I Dと共に、 素材データの属性を受信する。 ステヅ ブ S 2 4 0 2において、 動画編集プログラム 1 2は、 データ I Dに対応する、 受 信した素材データの属性をユーザ映像管理データベース 4に登録する。
ステップ S 2 4 0 3において、 動画編集プログラム 1 2は、 素材データの属性 を基に、 属性が送信された素材データを共有するか否かを判定し、 属性が送信さ れた素材データを共有すると判定された場合、 ステップ S 2 4 0 4に進み、 素材 データに対応するデータ I D、 ユーザ I D、 及び有料フラグなどを共有映像管理 データベース 5に登録して、 処理は終了する。 共有する旨の属性が登録された素 材デ一夕は、 その素材データを所有していない他の使用者のパーソナルコンビュ —夕 1から読み出され、 利用されることが可能になる。
ステップ S 2 4 0 3において、 属性が送信された素材デ一夕を共有しないと判 定された場合、 共有映像管理データベース 5への登録の処理は必要ないので、 ス テヅプ S 2 4 0 4の処理はスキップされ、 処理は終了する。
以上のように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1から受信し た素材データの属性をユーザ映像管理データべ一ス 4に登録すると共に、 共有が 設定されている素材デ一夕に対応するデ一夕 I D、 ユーザ I D、 及び有料フラグ などを共有映像管理データベース 5に登録することができる。
次に、 図 3 2のステップ S 1 5の処理に対応する、 使用者が所有する素材デー 夕の口一ドの処理の詳細を図 3 7のフローチャートを参照して説明する。 ステツ プ S 1 5 0 1において、 ブラウザプログラム 1 1は、 ユーザ I Dと共に使用者の 素材データのロードの要求を、 インタ一ネット 2を介して、 動画編集用サーバ 3 に送信する。
ステップ S 2 5 0 1において、 動画編集プログラム 1 2は、 ィンタ一ネッ ト 2 を介して、 パーソナルコンピュータ 1から送信された、 ユーザ I Dと使用者の素 材デ一夕の口一ドの要求を受信する。 ステップ S 2 5 0 2において、 動画編集プ ログラム 1 2は、 受信したユーザ I Dがユーザ情報管理データベース 7に記録さ れているか否かをチェックする。 受信したユーザ I Dがユーザ情報管理デ一夕べ —ス 7に記録されていないとき、 動画編集用サーバ 3は、 処理を終了させ、 以下 の処理を実行しない。
受信したユーザ I Dがユーザ情報管理データベース 7に記録されているとき、 ステップ S 2 5 0 3に進み、 動画編集プログラム 1 2は、 ユーザ情報管理データ ベース Ίからユーザ I Dに対応するディレクトリ情報を読み出し、 読み出したデ ィレクトリ情報を基にユーザ映像管理データベース 4から使用者が所有する素材 データをデータ I Dと共に読み込む。 ステップ S 2 5 0 4において、 動画編集ブ ログラム 1 2は、 ステップ S 2 5 0 3の処理で読み込まれた素材データを基に、 サムネイルを生成する。
ステップ S 2 5 0 5において、 動画編集プログラム 1 2は、 データ I Dに対応 させて生成したサムネイルをィンターネッ ト 2を介して、 パーソナルコンビュ一 夕 1に送信する。
ステップ S 1 5 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したデ一夕 I Dとサムネイルを受信する。 ステップ S 1 5 0 3において、 ブラウザプログラム 1 1は、 図 1 1に例を示す画面にサムネイルを表示する。 ステップ S 1 5 0 4において、 ブラウザプログラム 1 1は、 サムネイル表示フ ィ一ルド 1 6 1— 1乃至 1 6 1— 9の選択を基に、 素材データの選択を読み込む, ステップ S 1 5 0 5において、 ブラウザプログラム 1 1は、 選択したデ一タを編 集用テンポラリスペース 6の作業用のスペースに口一ドさせるポタン 1 6 2がク リ ヅクされたか否かを判定し、 ポタン 1 6 2がクリ ックされていないと判定され た場合、 ステップ S 1 5 0 4に戻り、 素材データの選択を読み込む処理を繰り返 す。
ステップ S 1 5 0 5において、 ボタン 1 6 2がクリ ヅクされたと判定された場 合、 ステップ S 1 5 0 6に進み、 ブラウザプログラム 1 1は、 インタ一ネッ ト 2 を介して、 選択された素材データのデータ I Dを動画編集用サーバ 3に送信する t ステップ S 2 5 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一タ 1から送信されたデ一夕 I Dを受信する。 ステップ S 2 5 0 7において、 動画編集プログラム 1 2は、 編集用テンポラリスペース 6に作業用のスペースを 確保する。 ステップ S 2 5 0 7の処理で確保される編集用テンポラリスペース 6 の作業用のスペースは、 素材データをロード (記録) し、 素材データを編集する のに十分な大きさのメモリ空間である。
ステップ S 2 5 0 8において、 動画編集プログラム 1 2は、 ユーザ映像管理デ 一夕べ一ス 4から、 受信したデータ I Dに対応する使用者が所有する素材デ一夕 を読み込み、 編集用テンポラリスペース 6の作業用のスペースにロードする。 ステップ S 2 5 0 9において、 動画編集プログラム 1 2は、 選択された使用者 が所有する素材データをロードした旨のデータを、 インタ一ネッ ト 2を介して、 パーソナルコンビュ一夕 1に送信する。
ステップ S 1 5 0 7において、 ブラウザプログラム 1 1は、 選択された使用者 が所有する素材データをロードした旨のデ一夕を受信する。 ステップ S 1 5 0 8 において、 ブラウザプログラム 1 1は、 図 1 2に示す画面により、 選択された使 用者が所有するデータをロードした旨を表示し、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンビユー夕 1の使用者が選 択した素材データを編集用テンポラリスペース 6の作業用のスペースにロードす る。 編集用テンポラリスペース 6の作業用のスペースに選択されたデータが口一 ドされたとき、 ブラウザプログラム 1 1は、 その素材データをロードした旨を表 示する。
次に、 図 3 2のステップ S 1 5の他の処理に対応する、 使用者が所有する全て の素材データの口一ドの処理の詳細を図 3 8のフ口一チヤ一トを参照して説明す る。 ステップ S 1 6 0 1乃至ステップ S 1 6 0 3の処理は、 図 3 7に示すステツ プ S 1 5 0 1乃至ステヅプ S 1 5 0 3の処理とそれそれ同様であるので、 その説 明は省略する。
ステップ S 1 6 0 4において、 使用者が所有する全ての素材データを口一ドさ せるボタン 1 6 3がクリ ックされたか否かを判定し、 ポタン 1 6 3がクリックさ れていないと判定された場合、 ステップ S 1 6 0 4の処理に戻り、 判定の処理を 繰り返す。
ステップ S 1 6 0 4において、 ポタン 1 6 3がクリ ックされたと判定された場 合、 ステップ S 1 6 0 5に進み、 ブラウザプログラム 1 1は、 インターネッ ト 2 を介して、 全ての素材データのロードの要求を動画編集用サーバ 3に送信する。 ステップ S 2 6 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一タ 1から送信された、 全ての素材データの口一ドの要求を受信する。 ステツ プ S 2 6 0 7において、 動画編集プログラム 1 2は、 編集用テンポラリスペース 6に作業用のスペースを確保する。 ステップ S 2 6 0 8において、 動画編集プロ グラム 1 2は、 ユーザ映像管理データベース 4から、 使用者が所有する全ての素 材デ一夕を読み込み、 編集用テンポラリスペース 6の作業用のスペースにロード する。 ステヅプ S 2 6 0 9において、 動画編集プログラム 1 2は、 使用者が所有する 全ての素材データをロードした旨のデータを、 インタ一ネ ヅ ト 2を介して、 パー ソナルコンピュータ 1に送信する。
ステップ S 1 6 0 6において、 ブラウザプログラム 1 1は、 使用者が所有する 全ての素材データをロードした旨のデータを受信する。 ステップ S 1 6 0 7にお いて、 ブラウザプログラム 1 1は、 図 1 2に示す画面により、 使用者が所有する 全ての素材データをロードした旨を表示し、 処理は終了する。
このように、 パーソナルコンピュータ 1の要求に対応して動画編集用サーバ 3 は、 パーソナルコンピュータ 1の使用者が所有する全ての素材デ一夕を編集用テ ンポラリスペース 6の作業用のスペースに口一ドする。 編集用テンポラリスべ一 ス 6の作業用のスペースに使用者が所有する全ての素材データがロードされたと き、 パーソナルコンピュータ 1は、 その旨を表示する。
次に、 図 3 2のステップ S 1 6の処理に対応する、 共有している素材デ一夕の ロードの処理の詳細を図 3 9のフローチャートを参照して説明する。 ステップ S 1 7 0 1において、 ブラウザプログラム 1 1は、 ュ一ザ I Dと共に共有している 素材データのロードの要求を、 インタ一ネッ ト 2を介して、 動画編集用サーバ 3 に送信する。
ステップ S 2 7 0 1において、 動画編集プログラム 1 2は、 イン夕一ネッ ト 2 を介して、 パーソナルコンピュータ 1から送信された、 ユーザ I Dと共に共有し ている素材データのロードの要求を受信する。 ステップ S 2 7 0 2において、 動 画編集プログラム 1 2は、 受信したユーザ I Dがユーザ情報管理データベース 7 に記録されているか否かをチェヅクする。 受信したュ一ザ I Dがユーザ情報管理 データベース 7に記録されていないと判定されたとき、 動画編集プログラム 1 2 は、 処理を終了させ、 以後の処理を実行しない。
ステップ S 2 7 0 2において、 受信したユーザ I Dがユーザ情報管理データべ ース 7に記録されていると判定されたとき、 ステップ S 2 7 0 3に進み、 動画編 集プログラム 1 2は、 共有映像管理デ一夕べ一ス 5から共有している素材デ一夕 のデータ I Dを読み出し、 読み出したデータ I Dを基にユーザ映像管理デ一夕べ ース 4から共有している素材データを読み込む。 すなわち、 共有している素材デ 一夕を読み込む処理において、 動画編集プログラム 1 2は、 デ一夕 I Dに対応す る素材データを、 ユーザ映像管理データベース 4の、 他の使用者に対応するュ一 ザエリアから読み込む。
ステップ S 2 7 0 4において、 動画編集プログラム 1 2は、 ステップ S 2 7 0 3の処理で読み込まれた素材デ一夕を基に、 サムネイルを生成する。
ステップ S 2 7 0 5において、 動画編集プログラム 1 2は、 デ一夕 I Dに対応 させて生成したサムネイルを、 インタ一ネッ ト 2を介して、 パーソナルコンビュ —夕 1に送信する。
ステップ S 1 7 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したデータ I Dと共有している素材データのサムネイルを受信する。 ス テツブ S 1 7 0 3において、 ブラウザプログラム 1 1は、 図 1 3に例を示す画面 に共有している素材データのサムネイルを表示する。
ステップ S 1 7 0 4において、 ブラウザプログラム 1 1は、 サムネイル表示フ ィールド 1 7 1— 1乃至 1 7 1— 9の選択を基に、 素材データの選択を読み込む < ステップ S 1 7 0 5において、 ブラウザプログラム 1 1は、 選択した素材データ を編集用テンポラリスペース 6の作業用のスペースに口一ドさせるボタン 1 7 2 がクリ ックされたか否かを判定し、 ポタン 1 7 2がクリ ックされていないと判定 された場合、 ステップ S 1 7 0 4に戻り、 素材データの選択を読み込む処理を繰 り返す。
ステップ S 1 7 0 5において、 ボタン 1 7 2がクリ ヅクされたと判定された場 合、 ステップ S 1 7 0 6に進み、 ブラウザプログラム 1 1は、 インタ一ネッ ト 2 を介して、 選択された素材データに対応するデータ I Dを動画編集用サーバ 3に 送信する。
ステップ S 2 7 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一タ 1から送信されたデ一夕 I Dを受信する。 ステップ S 2 7 0 7において、 動画編集プログラム 1 2は、 データ I Dに対応する有料フラグを共有映像管理デ —夕べ一ス 5から読み出して、 ロードするデ一夕が有料か否かを判定し、 有料で あると判定された場合、 ステップ S 2 7 0 8に進み、 ユーザ映像管理デ一夕べ一 ス 4からデータ I Dに対応する料金を読み出して、 ユーザ情報管理データべ一ス 7のサービス利用料を更新して課金する。
ステップ S 2 7 0 7において、 有料でないと判定された場合、 課金の処理は必 要ないので、 ステップ S 2 7 0 8の処理はスキップされ、 処理はステップ S 2 7 0 9に進む。
ステップ S 2 7 0 9において、 動画編集プログラム 1 2は、 編集用テンポラリ スペース 6に作業用のスペースを確保する。 ステップ S 2 7 1 0において、 動画 編集プログラム 1 2は、 ユーザ映像管理データベース 4から、 受信したデ一夕 I Dに対応する共有している素材データを読み込み、 編集用テンポラリスペース 6 の作業用のスペースに口一ドする。
ステップ S 2 7 1 1において、 動画編集プログラム 1 2は、 選択された共有し ている素材データをロードした旨のデータを、 イン夕一ネッ ト 2を介して、 パー ソナルコンビュ一夕 1に送信する。
ステップ S 1 7 0 7において、 ブラウザプログラム 1 1は、 選択された共有し ている素材デ一夕を口一ドした旨のデータを受信する。 ステップ S 1 7 0 8にお いて、 ブラウザプログラム 1 1は、 選択された共有している素材データをロード した旨を表示し、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1の使用者が選 択した共有している素材データを、 編集用テンポラリスペース 6の作業用のスぺ —スにロードして、 その素材データが有料のとき、 課金の処理を実行する。 編集 用テンポラリスペース 6の作業用のスペースに選択された、 共有している素材デ —夕がロードされたとき、 パーソナルコンピュータ 1は、 その素材デ一夕を口一 ドした旨を表示する。
次に、 図 3 2のステップ S 1 7の処理に対応する、 自動編集の処理の詳細を図 4 0のフ口一チヤ一トを参照して説明する。 ステップ S 1 8 0 1において、 ブラ ゥザプログラム 1 1は、 ウィンドウ 2 8 4に入力されたテキス トを読み込む。 ス テヅブ S 1 8 0 2において、 ブラウザプログラム 1 1は、 選択ポ夕ン 2 8 1— 1 乃至 2 8 1— 5のいずれかの選択、 ループボタン 2 8 2、 又はテキス トシェイク ポタン 2 8 3の選択などの自動編集の設定を読み込む。
ステップ S 1 8 0 3において、 ブラウザプログラム 1 1は、 シェイクポタン 2 8 5がクリ ックされたか否かを判定し、 シェイクボタン 2 8 5がク リ ックされて いないと判定された場合、 ステップ S 1 8 0 1 に戻り、 テキス 卜の読み込みおよ び設定の読み込みの処理を繰り返す。
ステップ S 1 8 0 3において、 シエイクポタン 2 8 5がクリ ヅクされたと判定 された場合、 ステップ S 1 8 0 4に進み、 ブラウザプログラム 1 1は、 ステップ S 1 8 0 1の処理で読み込んだテキス ト、 及びステップ S 1 8 0 2の処理で読み 込んだ自動編集の設定を、 イン夕一ネッ ト 2を介して、 動画編集用サーバ 3に送 信する。
ステップ S 2 8 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一夕 1が送信したテキス ト及び自動編集の設定を受信する。 ステップ S 2 8 0 2において、 動画編集プログラム 1 2は、 インターネッ ト 2を介して、 パ一ソナ ルコンピュータ 1に自動編集の処理中を示す画面のデータを送信する。
ステップ S 1 8 0 5において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信した自動編集の処理中を示す画面のデ一夕を受信する。 ステップ S 1 8 0 6において、 ブラウザプログラム 1 1は、 図 2 9に例を示す、 自動編集の処理 中を示す画面を表示する。
ステップ S 2 8 0 3において、 動画編集プログラム 1 2は、 シェ一力処理を実 行する。 シェ一力処理の詳細は、 図 4 1乃至図 4 3のフローチャートを参照して 後述する。
ステップ S 2 8 0 4において、 動画編集プログラム 1 2は、 シェ一力処理によ り生成された動画像のデータを、 編集用テンボラリスペース 6の作業用のスぺー スに 1つのファイルとして保存する。 ステップ S 2 8 0 5において、 動画編集プ ログラム 1 2は、 インターネッ ト 2を介して、 パーソナルコンピュータ 1に自動 編集の処理を終了した旨を示す画面のデ一夕を送信する。
ステップ S 1 8 0 5において、 ブラウザプログラム 1 1は、 動画編集用サ一パ 3が送信した自動編集の処理を終了した旨を示す画面のデ一夕を受信する。 ステ ヅプ S 1 8 0 6において、 ブラウザプログラム 1 1は、 図 3 0に例を示す、 自動 編集の処理を終了した旨を示す画面を表示し、 処理は終了する。
このように、 パーソナルコンビュ一夕 1は、 動画編集用サーバ 3に自動編集の 処理を実行させることができる。
次に、 図 4 1乃至図 4 3のフローチャートを参照して、 図 4 0のステップ S 2 8 0 3のシヱ一力処理 (自動編集処理) の詳細について説明する。 なお、 以下の 処理は、 特に、 説明しない限り、 基本的に動画編集プログラム 1 2により実行さ れる。 最初にステップ S 5 1において、 編集用テンポラリスペース 6の作業用の スペースに口一ドされている素材データを素材クリップとして読み込み処理が実 行される。 すなわち、 上述したように、 動画編集プログラム 1 2は、 ユーザ映像 管理データベース 4から使用者により指定された素材データなどを自動編集処理 の対象 (素材クリップ) として編集用テンポラリスペース 6の作業用のスペース にロードしている。
なお、 この時取り込まれる素材デ一夕は、 ユーザ映像管理データベース 4に記 録されているものだけでなく、 インタ一ネット 2を介して、 図示せぬ W e bサ一 バから取り込まれたものや、 ドライブ 4 2により磁気ディスク 6 1、 光ディスク 6 2、 光磁気ディスク 6 3、 又は半導体メモリ 6 4などより取り込まれたものと することも可能である。
次に、 ステップ S 5 2に進み、 動画編集プログラム 1 2は、 シェイク対象とし て、 テキストが受信されていれば、 その受信されたテキストを取り込む処理を実 行する。 すなわち、 使用者は、 自動編集処理を行うとき、 タグ 2 7 1— 1を操作 して、 シエイカーウィンドウを表示させる (図 2 8 ) 。 そしてテキストシェイク を行う場合、 使用者は、 さらに、 テキストシェイクポタン 2 8 3を操作する。 こ れにより、 図 2 8に示すように、 ウィンドウ 2 8 4が表示される。 この時、 使用 者は、 キーボードなどを操作して、 シェイクすべきテキストを入力する。 パ一ソ ナルコンピュータ 1はこのテキストを取り込み、 ウィンドウ 2 8 4に表示させる 入力されたテキストは、 シェ一力処理の実行に先立って、 図 2 0のステップ S 2 8 0 1の処理で動画編集用サーバ 3に受信されている。
また、 使用者は、 5つの選択ボ夕ン 2 8 1— 1乃至 2 8 1— 5から 1つを指定 する。 この選択ボタン 2 8 1— 1乃至 2 8 1— 5には、 それそれ所定のシナリォ (動画編集用サーバ 3に記録されている。 ) が予め対応されており、 この選択ポ タン 2 8 1を選択することで、 そのシナリオを選択することになる。 動画編集プ ログラム 1 2は、 選択ポタン 2 8 1の選択に対応したデ一夕を図 2 0のステップ S 2 8 0 1の処理で受信している。
そこで、 動画編集プログラム 1 2は、 ステップ S 5 3において、 選択ポタン 2 8 1— 1乃至 2 8 1— 5の選択の設定を読み取る処理を実行する。
例えば、 選択ポタン 2 8 1 - 1には、 図 4 4 Aに示すようなシナリオが対応さ れている。 このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成さ れている。 シーン 1乃至シーン 4は、 それそれ時間 T 1乃至 T 4の長さを有して いる。 そして、 この例の場合、 シーン 1には、 アニメーション効果が付加され、 シーン 2には、 モノクロの色調整処理が行われる。 そしてシーン 1 とシーン 2の 間には、 トランジシヨンが付加される。 さらにこのシナリオには、 音楽 M 1が対 応されている。
その詳細は後述するが、 動画編集プログラム 1 2は、 素材トレィ 2 0 1に表示 された素材クリヅプの画像情報の中から所定のものをランダムに選択して、 シー ン 1乃至シーン 4に割り当てる処理を実行する。 その結果、 この予め用意された シナリオに沿った編集処理が、 動画編集プログラム 1 2により、 自動的に行われ ることになる。
図 4 4 Bは、 選択ポタン 2 8 1一 2に対応されているシナリオを表している。 このシナリオは、 シーン 1乃至シーン 5の 5つのシーンにより構成されており、 それそれのシーンの長さは、 T l 1乃至 T 1 5とされている。 シーン 2にはセピ ァ色、 シーン 3にはランダム効果、 シーン 4とシーン 5の間にはトランジシヨン が付加されている。 そして、 音楽は、 M 2 とされている。
図示は省略するが、 このようなシナリオが選択ポタン 2 8 1— 3乃至 2 8 1一 5にも対応され、 予め用意されている。
選択ポタン 2 8 1— 1乃至 2 8 1— 5の選択の設定は、 シェ一力処理の実行に 先立って、 図 2 0のステップ S 2 8 0 1の処理で動画編集用サーバ 3に受信され ている。
ステップ S 5 4において、 動画編集プログラム 1 2は、 ループの設定を読み取 る処理を実行する。 すなわち、 使用者は、 編集して得られたシナリオを連続して 繰り返し再生することを前提とするとき、 ループボタン 2 8 2を操作する。 動画 編集プログラム 1 2は、 ループポタン 2 8 2の設定に対応したデータを図 2 0の ステップ S 2 8 0 1の処理で受信している。 この操作が行われたとき、 ステップ S 5 4において、 動画編集プログラム 1 2は、 ループボタン 2 8 2の設定に対応 したデータを記憶する。
例えば、 選択ポタン 2 8 1 - 1に対応されているシナリオは、 基本的に図 4 4 Aに示すように構成されているのであるが、 ループポタン 2 8 2が操作されない 場合の (連続して繰り返し再生しないことを前提とする) シーンは、 より正確に は、 例えば図 4 5 Aに示すように構成されている。 すなわち、 シーン 1 (SC 1 ) の冒頭には、 フヱードインする部分 SC 1 ' が形成されており、 最後のシーン 4 ( SC 4 ) には、 フェードアウトする部分 SC 4, が形成されている。 また、 音楽 M 1にも、 その最後には、 無音部分 M 1 ' が形成されている。
従って、 図 4 5 Aに示すように構成されているシナリオに基づいて編集された 情報を、 敢えて連続して繰り返し再生すると、 図 4 5 Bに示すようになる。 すな わち、 フェードインの部分 SC 1 ' により再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4が再生された後、 フェードアウトの部分 SC 4 ' により、 1回 目の再生が終了する。 そしてそれに続いて、 再び、 フェードインのシーン SC 1, の画像の再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4と再生され、 再びフヱードアウト部分 SC 4 ' が表示される。 音楽も、 1回目の再生と 2回目の 再生の境界部分 Aにおいては、 無音部分 M 1 ' が再生される。 従って、 視聴者は、 境界部分 Aにおいて、 一旦再生が終了したことを容易に認識することができる。 これに対して、 選択ボタン 2 8 1— 1が選択された後、 さらにル一ブポタン 2 8 2も操作された場合には、 図 4 5 Cに示すようなシナリオが選択される。
このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成されている が、 シーン 1の先頭と、 シーン 4の最後は、 シーン 4に続けて、 シーン 1が再生 されたとしても、 その変化が、 例えば、 シーン 1とシーン 2との切り替え、 或い は、 シーン 2とシーン 3の切り替え、 さらには、 シーン 3とシーン 4の切り替え のタイミングと同様に、 シーンは変わるが、 1つのシナリオが終了したと認識さ れないような構成とされている。 すなわち、 単に、 画面が切り替えられたに過ぎ ないと認識され得るような構成とされている。 同様に、 音楽 M 1の先頭から終端部までの再生に続けて、 再び音楽 M lを連続 して再生したとしても、 その部分において、 シーンが終了したと認識されないよ うな構成とされている。
その結果、 図 4 5 Dに示すように、 シーン 1乃至シーン 4に続けて、 再びシー ン 1乃至シーン 4が連続して再生されたとしても、 その境界部分 Aにおいて、 視 聴者が 1回目の再生が終了し、 2回目の再生が開始されたと、 直感的に認識する 可能性は少ない。
このように、 動画編集プログラム 1 2は、 選択ポタン 2 8 1— 1乃至 2 8 1— 5に対応して、 連続して繰り返し再生されないことを前提とするシナリオと、 連 続して繰り返し再生することを前提とするシナリオの 2つのシナリオを有してい る。 そして、 ループポタン 2 8 2が操作されない場合、 前者が選択され、 操作さ れた場合、 後者が選択される。
次に、 ステップ S 5 5において、 動画編集プログラム 1 2は、 ループが指定さ れているか否か、 すなわち、 ループポタン 2 8 2が操作されたか否かを判定する ループが指定されていると判定された場合、 ステップ S 5 6に進み、 動画編集プ ログラム 1 2は、 選択ポタン 2 8 1一 1乃至 2 8 1— 5のうち、 操作されたもの に対応するル一ブ用のシナリオを選択する。 これに対して、 ステップ S 5 5にお いて、 ループが指定されていないと判定された場合、 ステップ S 5 7において、 動画編集プログラム 1 2は、 選択ポタン 2 8 1— 1乃至 2 8 1— 5のうち、 選択 されたものに対応する非ループ用のシナリオを選択する。
ステップ S 5 6、 又はステップ S 5 7の処理の後、 ステヅブ S 5 8に進み、 動 画編集プログラム 1 2は、 ステップ S 5 1の処理で読み込んだ素材クリヅブのそ れそれに、 I D (識別番号) を割り当てる。 そしてステップ S 5 9において、 動 画編集プログラム 1 2は、 素材クリップのうちの 1つを乱数で選択する。 換言す れば、 ステヅブ S 5 8の処理で割り当てた I Dの中から 1つの I Dをランダムに 選択することで、 1つの素材クリップが選択される。
ステップ S 6 0において、 動画編集プログラム 1 2は、 ステップ S 5 9の処理 で選択された素材クリヅブをステップ S 5 6、 又はステップ S 5 7の処理で選択 されたシナリオ中の 1つのシーン (今の場合、 最初のシーン) に対応させる。 ステップ S 6 1において、 全てのシーンに対する素材クリッブの対応付け処理 が終了したか否かが判定され、 まだ終了していない場合、 ステップ S 5 9に戻り、 それ以降の処理が繰り返し実行される。 このようにして、 例えば、 図 4 4 Aに示 すシーン 1、 シーン 2、 シーン 3、 シーン 4に対して、 それそれ所定の素材クリ ッブが対応付けされる。
ステップ S 6 1 において、 全てのシーンに対する対応付け処理が終了したと判 定された場合、 ステップ S 6 2に進み、 動画編集プログラム 1 2は、 1つのシ一 ンを選択する。 例えば、 ここで、 先頭のシーンが選択される。 ステップ S 6 3に おいて、 動画編集プログラム 1 2は、 ステップ S 6 2で選択されたシーンの長さ が、 そのシーンに対応付けられた素材クリ ッブの長さより短いか否かを判定する < 選択されたシーンの長さが対応づけられた素材クリ ッブの長さより短い場合には、 ステップ S 6 4に進み、 動画編集プログラム 1 2は、 素材クリ ップの中のシーン に対応させる部分を乱数で決定する。 例えば、 素材クリ ップの長さが 5秒であり、 対応するシーンの長さが 1秒である場合、 5秒間のうちの、 どの 1秒間の画像を そのシーンに対応させるかが、 1から 5までの数字を乱数で発生させて、 決定さ れる。
一方、 ステップ S 6 3において、 選択されたシーンの長さが対応づけられた素 材クリ ッブの長さより短くないと判定された場合、 ステップ S 6 5に進み、 動画 編集プログラム 1 2は、 素材クリツプの長さをシーンの長さに合うように延長す る処理を実行する。 例えば、 素材クリ ッブの長さが 1秒であり、 シーンの長さが 5秒であるような場合、 素材クリ ップの長さを 5倍に延長することで ( 1 Z 5倍 の速度で再生することで) 、 すなわち、 スローモーション再生させることで、 素 材クリ ッブの長さとシーンの長さが対応される。
ステップ S 6 4、 又はステヅブ S 6 5の処理の後、 ステップ S 6 6に進み、 動 画編集プログラム 1 2は、 そのシナリオでは、 そのシーンにエフェク トが指定さ れているか否かを判定する。 例えば、 今、 処理対象とされているシーンが、 図 4 4 Aにおけるシーン 1である場合、 このシーン 1には、 アニメーション効果が指 定されている。 このような場合、 ステップ S 6 7に進み、 動画編集プログラム 1 2は、 エフェク トが決定されているか否かを判定する。 すなわちエフェク トの指 定には、 図 4 4 Aのシーン 1における場合のように、 エフェク トがアニメーショ ン効果というように、 既に決定されている場合と、 例えば、 図 4 4 Bのシーン 3 における場合のように、 ランダム効果として指定されている場合がある。 ランダ ム効果の場合、 エフェク トを付加することは決められているが、 どのエフェク ト を適用するのかはまだ決定されていない。 したがって、 このような場合には、 ス テヅプ S 6 8に進み、 動画編集プログラム 1 2は、 予め用意されている、 例えば、 2 4個のエフェク トの中から、 乱数を発生させ、 1つのエフェク トを決定する。 ステップ S 6 7で、 エフェク トが既に決定されていると判定された場合、 また はステップ S 6 8で、 エフェク トが決定された場合、 ステップ S 6 9に進み、 動 画編集プログラム 1 2は、 シーンに対応された素材クリ ップに対して、 決定され たエフェク トを対応させる。
ステップ S 6 6において、 シーンにエフェク トが指定されていないと判定され た場合、 ステップ S 6 7乃至ステップ S 6 9の処理は不要であるので省略される 次にステップ S 7 0において、 動画編集プログラム 1 2は、 トランジシヨンの 指定がなされているか否かを判定する。 トランジシヨンの指定が成されている場 合には、 ステップ S 7 1に進み、 動画編集プログラム 1 2は、 次の素材クリップ との間にトランジシヨンを設定する。 これにより、 例えば、 現在処理対象とされ ているシーンと次に処理対象とされているシーンの画面が切り替えられる時、 例 えば、 図 2 7に示すようなワイプ効果が付与されて、 画面が切り替えられること になる。
ステップ S 7 0において、 トランジシヨンの指定がないと判定された場合、 ス テツブ S 7 1の処理は、 不要であるので、 スキップされる。
ステップ S 7 2において、 動画編集プログラム 1 2は、 テキス トが取り込まれ ているか否かを判定する。 すなわち、 上述したように、 テキス トシェイクを行う 場合には、 ステップ S 5 2において、 その対象とされるテキス トが取り込まれて いる。 この場合、 ステップ S 7 3に進み、 動画編集プログラム 1 2は、 今、 処理 対象とされているシーンにおいて、 テキス トをシェイクするか否かをランダムに 決定する。 ステップ S 7 4において、 動画編集プログラム 1 2は、 テキス トシエ ィクをすると決定されたか否かを判定し、 テキス トシエイクをすると決定された と判定された場合、 ステップ S 7 5に進み、 取り込まれているテキス トの中から 1つのテキス トをランダムに選択する。 例えば、 図 2 8に示すように、 3つのテ キストが取り込まれている場合、 そのうちの 1つのテキス トが今処理対象とされ ているシーンに対応されるものとして選択される。
次に、 ステップ S 7 6において、 動画編集プログラム 1 2は、 テキス トの挿入 位置をランダムに決定する。 この例の場合、 テキス トの挿入位置は、 画面の中央、 右上、 左上、 左下、 右下の 5つとされており、 この 5つの位置から、 1つの位置 がランダムに決定される。
ステップ S 7 4において、 テキス トシェイクをしないと判定された場合、 ステ ッブ S 7 5とステップ S 7 6の処理はスキップされる。 また、 ステップ S 7 2に おいて、 テキス トが取り込まれていないと判定された場合には、 ステップ S 7 3 乃至ステップ S 7 6の処理はスキヅブされる。
次にステップ S 7 7において、 全てのシーンに対する処理が終了したか否かが 判定され、 まだ全てのシーンに対する処理が終了していない場合には、 ステップ S 6 2に戻り、 次のシーンに対して、 上述した場合と同様の処理が実行される。 ステップ S 7 7において、 全てのシーンに対する処理が終了したと判定された 場合、 処理は終了する。
以上のシェ一力処理を、 模式的に説明すると、 図 4 6に示すようになる。
すなわち、 この例の場合、 素材クリ ップとして、 素材クリッブ CL 1乃至 CL 5が、 指定されている。 また、 使用者が指定した選択ポタン 2 8 1の操作により、 1つ のシナリオが決定されている。 このシナリオは、 この例の場合、 シーン SC 1乃至 SCnの n個のシーンで構成されている。 このうちシーン SC 3は、 セピア色の色調整 が行われ、 シーン SCn_ lには、 ランダム効果が付与され、 シーン SCnは、 セピア色 の色調整が行われる。 また、 シーン SC 2 と SC 3の間、 シーン SC 3と SC 4の間、 シ —ン SCn- 1とシーン SCnの間には、 それそれ、 トランジシヨンが形成される。 シ一 ン SC 1の長さは 2秒、 シーン SC 2の長さは 2 . 2秒、 シーン SC 3の長さは 4 . 0 秒、 シーン SCn-3の長さは 1秒、 シーン SCn-1の長さは 5秒、 シーン SCnの長さは 3 秒とされている。 また、 このシーンに対応する音楽も予め決定されている。 これ らは既に、 動画編集プログラム 1 2により予め用意されているものである。 これに対して、 動画編集プログラム 1 2は、 5個の素材クリッブ CL 1乃至 CL 5 の中から所定のものをランダムに選択し、 各シーン SC 1乃至 SCnに割り当てる。 そ して、 例えば、 シーン SCn-3に素材クリップ CL 5が割り当てられた場合、 シーン S Cn-3の長さは 1秒であるのに対して、 素材クリップ CL 5の長さは、 1秒以上存在 する。 そこで、 この場合、 素材クリッブ CL 5の再生時刻が t 1から t 4までの間 のうちの、 ランダムに選択された時刻 t 2から t 3までの間の 1秒の長さの部分 がシーン SCn-3に割り当てられる。
このようにして、 使用者は素材クリッブを指定するだけで、 自動的に、 所定の 編集処理された画像情報を得ることができる。 素材クリッブの割り当ては、 ラン ダムに決定されるため、 同一の素材クリッブを選択したとしても、 基本的には異 なる編集結果が得られることになる。
次に、 図 3 2のステップ S 1 8の処理に対応する、 自動編集の処理により生成 された動画像の確認の処理の詳細を図 4 7のフローチャートを参照して説明する。 ステップ S 1 9 0 1において、 ブラウザプログラム 1 1は、 イン夕一ネット 2を 介して、 動画編集用サーバ 3に、 自動編集により生成された動画像の再生の要求 を送信する。
ステップ S 2 9 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1が送信した、 自動編集により生成された動画像の再生の要求を受信する。 ステップ S 2 9 0 2において、 動画編集プログラム 1 2は、 自動編集により生成 された動画像のデ一夕を編集用テンポラリスペース 6の作業用のスペースに記録 されているファイルから読み出して、 インタ一ネヅ ト 2を介して、 パーソナルコ ンビュ一夕 1に送信する。
ステップ S 1 9 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信した動画像のデ一夕を受信する。 ステップ S 1 9 0 3において、 ブラウ ザプログラム 1 1は、 受信した動画像のデータを再生し、 処理は終了する。
このように、 ブラウザプログラム 1 1は、 自動編集により生成された動画像を 再生するので、 パーソナルコンピュータ 1の使用者は、 自動編集により生成され た動画像を確認し、 保存するか否かの判断をすることができる。
次に、 図 3 2のステップ S 1 9の処理に対応する、 自動編集の処理により生成 された動画像のデータの保存の処理の詳細を図 4 8のフローチヤ一トを参照して 説明する。 ステップ S 1 1 0 0 1において、 ブラウザプログラム 1 1は、 インタ 一ネッ ト 2を介して、 動画編集用サーバ 3に、 自動編集により生成された動画像 のデータの保存の要求を送信する。
ステップ S 2 1 0 0 1において、 動画編集プログラム 1 2は、 パーソナルコン ビュー夕 1が送信した、 自動編集により生成された動画像のデ一夕の保存の要求 を受信する。 ステップ S 2 1 0 0 2において、 動画編集プログラム 1 2は、 デー 夕 I Dを生成して、 編集用テンポラリスペース 6の作業用のスペースのファイル に格納されている、 編集されたデ一夕にデータ I Dを割り当てて、 ユーザ映像管 理データべ—ス 4の使用者用のスペースに保存する。 ステヅブ S 2 1 0 0 3にお いて、 動画編集プログラム 1 2は、 ユーザ映像管理データペース 4に、 図 4を参 照して説明した、 生成したデータ I Dと共に、 そのデータ I Dに対応するデ一夕 を記録させて、 ユーザ映像管理デ一夕べ一ス 4に記録されているデータを更新さ せ、 処理は終了する。
このように、 ブラウザプログラム 1 1は、 自動編集により生成された動画像の データをユーザ映像管理データベース 4に記録させることができる。
以上のように、 動画編集用サーバ 3は、 インターネッ ト 2を介してパーソナル コンピュータ 1から送信された動画像、 静止画像、 又は音声のデータを素材デー 夕としてュ一ザ映像管理データベース 4に記録させ、 パーソナルコンピュータ 1 の要求に対応して、 ユーザ映像管理データベース 4に記録されている所有してい る素材データを基に、 自動的に動画像を生成することができる。
また、 動画編集用サーバ 3は、 パーソナルコンビユー夕 1の要求に対応して、 ユーザ映像管理データベース 4に記録されている共有している素材データを基に、 自動的に動画像を生成することができる。
パーソナルコンビュ一夕 1の使用者は、 ユーザ映像管理データペース 4に記録 された、 自動的に生成した動画像データの属性を設定することで、 更に、 自動的 に生成した動画像データの共有を設定することができる。
上述した一連の処理は、 ハードウェアにより実行させることもできるが、 ソフ トウエアにより実行させることもできる。 一連の処理をソフ トウエアにより実行 させる場合には、 そのソフ トウェアを構成するプログラムが、 専用のハードゥエ ァに組み込まれているコンビュ一夕、 又は、 各種のプログラムをインス トールす ることで、 各種の機能を実行することが可能な、 例えば汎用のパーソナルコンビ ユー夕などに、 プログラム格納媒体からィンス ト一ルされる。
コンピュータにインス トールされ、 コンピュータによって実行可能な状態とさ れるプログラムを格納するプログラム格納媒体は、 図 2に示すように、 磁気ディ スク 6 1 (フロッピディスクを含む) 、 光ディスク 6 2 (CD- R O M ( Compact D i sc-Read Only Memory), D V D (Digital Versat i le D isc )を含む) 、 光磁気ディ スク 6 3 ( M D (Mini-Di sc )を含む) 、 若しくは半導体メモリ 6 4などよりなるパ ヅケージメディア、 又はプログラムが一時的若しくは永続的に格納される R O M 3 2や、 H D D 4 1などにより構成される。 プログラム格納媒体へのプログラム の格納は、 必要に応じてルー夕、 モデムなどの通信部 4 3を介して、 ローカルェ リアネッ トワーク、 イン夕一ネッ ト 2、 デジタル衛星放送といった、 有線又は無 線の通信媒体を利用して行われる。
なお、 本発明において、 プログラム格納媒体に格納されるプログラムを記述す るステップは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必 ずしも時系列的に処理されなく とも、 並列的あるいは個別に実行される処理をも 含むものである。
また、 本発明において、 システムとは、 複数の装置により構成される装置全体 を表すものである。 産業上の利用可能性 本発明は、 情報処理装置が送信したデータの、 記録領域への記録が制御され、 情報処理装置の要求に対応して、 他の情報処理装置にデータを提供するか否かが 設定され、 他の情報処理装置にデータを提供する設定がされているとき、 他の情 報処理装置からの要求に対応して、 データが他の情報処理装置に提供されるよう にしたので、 データを、 簡単に、 多数の他の使用者が利用できるようになる。

Claims

請求の範囲
1 . 情報処理装置に対応する記録領域を有し、 前記記録領域に記録されているデ 一夕を前記情報処理装置に提供する情報提供装置において、
前記情報処理装置が送信した前記データの、 前記記録領域への記録を制御する 記録制御手段と、
前記情報処理装置の要求に対応して、 他の情報処理装置に前記データを提供す るか否かを設定する設定手段と、
前記設定手段により、 前記他の情報処理装置に前記データを提供する設定がさ れているとき、 前記他の情報処理装置からの要求に対応して、 前記データを前記 他の情報処理装置に提供する提供手段とを含むことを特徴とする情報提供装置。
2 . 上記装置は、 更に、 前記デ一夕に対応するサムネイルを生成する生成手段と、 前記サムネイルを前記他の情報処理装置に送信する送信手段と含むことを特徴と する請求の範囲第 1項記載の情報提供装置。
3 . 前記設定手段は、 前記他の情報処理装置に前記データを提供するとき、 有料 か否かを更に設定することを特徴とする請求の範囲第 1項記載の情報提供装置。
4 . 前記設定手段は、 前記他の情報処理装置に前記データを提供するときの料金 を更に設定することを特徴とする請求の範囲第 3項記載の情報提供装置。
5 . 前記料金は、 前記他の情報処理装置に前記データを提供するとき、 前記情報 処理装置側から前記他の情報処理装置側に支払われる金額であることを特徴とす る請求の範囲第 4項記載の情報提供装置。
6 . 情報処理装置に対応する記録領域を有し、 前記記録領域に記録されているデ 一夕を前記情報処理装置に提供する情報提供装置の情報提供方法において、 前記情報処理装置が送信した前記データの、 前記記録領域への記録を制御する 記録制御ステツブと、
前記情報処理装置の要求に対応して、 他の情報処理装置に前記データを提供す るか否かを設定する設定ステップと、
前記設定ステツブの処理により、 前記他の情報処理装置に前記データを提供す る設定がされているとき、 前記他の情報処理装置からの要求に対応して、 前記デ 一夕を前記他の情報処理装置に提供する提供ステップとを含むことを特徴とする 情報提供方法。
7 . 情報処理装置に対応する記録領域を有し、 前記記録領域に記録されているデ 一夕を前記情報処理装置に提供する情報提供処理用のプログラムであって、 前記情報処理装置が送信した前記データの、 前記記録領域への記録を制御する 記録制御ステップと、
前記情報処理装置の要求に対応して、 他の情報処理装置に前記データを提供す るか否かを設定する設定ステップと、
前記設定ステップの処理により、 前記他の情報処理装置に前記データを提供す る設定がされているとき、 前記他の情報処理装置からの要求に対応して、 前記デ —夕を前記他の情報処理装置に提供する提供ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが格納され ているプログラム格納媒体。
PCT/JP2001/003740 2000-04-27 2001-04-27 Dispositif de mise en place d'informations WO2001084366A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/019,343 US7617299B2 (en) 2000-04-27 2001-04-27 Apparatus and method for providing data at the demand of a data processing apparatus
EP01926065.2A EP1278131B1 (en) 2000-04-27 2001-04-27 Information providing device
HK03103132A HK1050944A1 (en) 2000-04-27 2003-04-30 Device and method for providing information.
US11/609,916 US7653707B2 (en) 2000-04-27 2006-12-13 Data-providing apparatus, data-providing method and program storing medium to provide requested content data to a user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000126851A JP4963141B2 (ja) 2000-04-27 2000-04-27 情報提供装置および方法、並びにプログラム格納媒体
JP2000-126851 2000-04-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10019343 A-371-Of-International 2001-04-27
US11/609,916 Continuation US7653707B2 (en) 2000-04-27 2006-12-13 Data-providing apparatus, data-providing method and program storing medium to provide requested content data to a user

Publications (1)

Publication Number Publication Date
WO2001084366A1 true WO2001084366A1 (fr) 2001-11-08

Family

ID=18636544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/003740 WO2001084366A1 (fr) 2000-04-27 2001-04-27 Dispositif de mise en place d'informations

Country Status (7)

Country Link
US (2) US7617299B2 (ja)
EP (1) EP1278131B1 (ja)
JP (1) JP4963141B2 (ja)
KR (1) KR100806415B1 (ja)
CN (1) CN1201250C (ja)
HK (1) HK1050944A1 (ja)
WO (1) WO2001084366A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4660879B2 (ja) 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
US7574723B2 (en) * 2001-07-19 2009-08-11 Macrovision Corporation Home media network
JP4244550B2 (ja) 2001-11-15 2009-03-25 ソニー株式会社 サーバ装置、コンテンツ提供方法、コンテンツ提供システム
US7234117B2 (en) * 2002-08-28 2007-06-19 Microsoft Corporation System and method for shared integrated online social interaction
US20050131953A1 (en) * 2003-02-14 2005-06-16 Fujitsu Limited Information providing method, information management device and program
JP2004287928A (ja) 2003-03-24 2004-10-14 Vision Arts Kk コンテンツ管理プログラム
JP4800953B2 (ja) * 2003-05-15 2011-10-26 コムキャスト ケーブル ホールディングス,エルエルシー 映像再生方法およびシステム
JP4426492B2 (ja) * 2005-03-30 2010-03-03 Ykk株式会社 プログラマブル・ターミナル・システム
US8156176B2 (en) * 2005-04-20 2012-04-10 Say Media, Inc. Browser based multi-clip video editing
US7769819B2 (en) * 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
US7809802B2 (en) * 2005-04-20 2010-10-05 Videoegg, Inc. Browser based video editing
JP4039433B2 (ja) * 2005-05-09 2008-01-30 コニカミノルタビジネステクノロジーズ株式会社 画像データ送信装置及び画像データ送信方法
EP2309738A1 (en) * 2005-05-23 2011-04-13 Thomas S. Gilley Distributed scalable media environment
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
US8401221B2 (en) * 2005-06-10 2013-03-19 Intel Corporation Cognitive control framework for automatic control of application programs exposure a graphical user interface
US8429612B2 (en) * 2005-11-11 2013-04-23 Intel Corporation Graphical user interface (GUI) noise reduction in a cognitive control framework
US7683943B2 (en) * 2005-12-22 2010-03-23 Canon Kabushiki Kaisha Image recording apparatus, image reproducing apparatus, method of controlling image recording apparatus, method of controlling image reproducing apparatus, computer program, and recording medium
JP4296514B2 (ja) * 2006-01-23 2009-07-15 ソニー株式会社 音楽コンテンツ再生装置、音楽コンテンツ再生方法及び音楽コンテンツ再生プログラム
JP4853066B2 (ja) * 2006-03-22 2012-01-11 ヤマハ株式会社 音楽情報提供装置及び電子音楽装置
JP4626590B2 (ja) * 2006-08-22 2011-02-09 ソニー株式会社 記録再生装置、再生装置、記録装置、撮像記録再生装置及び操作内容表示方法
US20080172704A1 (en) * 2007-01-16 2008-07-17 Montazemi Peyman T Interactive audiovisual editing system
US20080239888A1 (en) * 2007-03-26 2008-10-02 Yamaha Corporation Music Data Providing System
US8686834B2 (en) * 2007-11-20 2014-04-01 Samsung Electronics Co., Ltd. Terminal having radio frequency function and method of processing information of the terminal
EP2194501A3 (en) * 2008-11-26 2012-02-01 Puzzlecut Co., Ltd Method and apparatus for providing advertising moving picture
KR101617322B1 (ko) * 2009-09-13 2016-05-02 삼성전자주식회사 동적 영상물 생성장치 및 방법, 그리고, 동적 영상물 재생장치 및 방법
JP5533432B2 (ja) * 2010-08-24 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US8963847B2 (en) * 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
US8866583B2 (en) 2012-06-12 2014-10-21 Jeffrey Ordaz Garage door system and method
CN102833601B (zh) * 2012-09-14 2016-08-24 乐视网信息技术(北京)股份有限公司 视频共享方法及基于该视频共享方法的系统
USD750112S1 (en) * 2013-01-04 2016-02-23 Samsung Electronics Co., Ltd. Portable electronic device with graphical user interface
US9639247B2 (en) * 2013-07-19 2017-05-02 Fuji Xerox Co., Ltd. Information processing device, information processing method, and computer-readable medium
US9377929B1 (en) * 2013-12-23 2016-06-28 Symantec Corporation Techniques for presenting information on a graphical user interface
JP5858071B2 (ja) * 2014-03-07 2016-02-10 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP6611514B2 (ja) * 2015-08-10 2019-11-27 キヤノン株式会社 画像形成装置
CN111159441B (zh) * 2019-12-25 2023-07-25 新方正控股发展有限责任公司 图片编辑方法、图片编辑装置和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302244A (ja) * 1994-04-28 1995-11-14 Dainippon Printing Co Ltd ネットワークを用いた著作物提供システム
JPH09214935A (ja) * 1996-02-02 1997-08-15 Mitsubishi Electric Corp 映像情報提供システム
JPH11154159A (ja) * 1997-11-21 1999-06-08 Nec Off Syst Ltd インターネット広告システム
JP2000076339A (ja) * 1998-09-01 2000-03-14 Toppan Printing Co Ltd コンテンツ運用方法
EP1093063A2 (en) 1999-09-02 2001-04-18 Mitsubishi Materials Corporation Information sharing apparatus, information sharing method, and recording medium therefore

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1047002A3 (en) 1993-07-20 2002-06-19 Canon Kabushiki Kaisha Document processing apparatus and method
JPH07261279A (ja) * 1994-02-25 1995-10-13 Eastman Kodak Co 写真画像の選択システム及び方法
US5768521A (en) * 1994-05-16 1998-06-16 Intel Corporation General purpose metering mechanism for distribution of electronic information
CA2204736A1 (en) * 1994-11-08 1996-05-23 Charles H. Ferguson An online service development tool with fee setting capabilities
US5699458A (en) * 1995-06-29 1997-12-16 Intel Corporation Efficient browsing of encoded images
US5706097A (en) * 1995-11-13 1998-01-06 Eastman Kodak Company Index print with a digital recording medium containing still images, motion sequences, and sound sequences
US5838314A (en) * 1996-02-21 1998-11-17 Message Partners Digital video services system with optional interactive advertisement capabilities
KR100304835B1 (ko) * 1996-02-28 2001-11-22 배종렬 이용자의특성에따른화상을제공하는통신시스템및해당통신시스템에사용하는단말장치및정보제공장치
US6157946A (en) 1996-02-28 2000-12-05 Netzero Inc. Communication system capable of providing user with picture meeting characteristics of user and terminal equipment and information providing device used for the same
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
US5760917A (en) * 1996-09-16 1998-06-02 Eastman Kodak Company Image distribution method and system
US6035323A (en) * 1997-10-24 2000-03-07 Pictra, Inc. Methods and apparatuses for distributing a collection of digital media over a network with automatic generation of presentable media
US6058428A (en) * 1997-12-05 2000-05-02 Pictra, Inc. Method and apparatus for transferring digital images on a network
US6301607B2 (en) * 1998-02-06 2001-10-09 Netergy Networks, Inc. Arrangement and method for displaying and sharing images
JPH11261745A (ja) * 1998-03-11 1999-09-24 Fuji Photo Film Co Ltd デジタル画像公開方法およびデジタルフォトサービスシステム
JP4083917B2 (ja) * 1998-04-10 2008-04-30 富士フイルム株式会社 電子アルバム・システムおよびその動作制御方法
US6154771A (en) * 1998-06-01 2000-11-28 Mediastra, Inc. Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively
US6307550B1 (en) * 1998-06-11 2001-10-23 Presenter.Com, Inc. Extracting photographic images from video
US6453078B2 (en) * 1998-08-28 2002-09-17 Eastman Kodak Company Selecting, arranging, and printing digital images from thumbnail images
US6535228B1 (en) * 1998-11-18 2003-03-18 Eastman Kodak Company Method and system for sharing images using a digital media frame
US6766357B1 (en) 1999-04-15 2004-07-20 Avid Technology, Inc. Apparatus and method for efficient transfer of multimedia data for playback
US6369835B1 (en) * 1999-05-18 2002-04-09 Microsoft Corporation Method and system for generating a movie file from a slide show presentation
JP2001111963A (ja) * 1999-10-04 2001-04-20 Hitachi Ltd 光ディスクを利用したビデオカメラにおける録画再生方法
US6351776B1 (en) * 1999-11-04 2002-02-26 Xdrive, Inc. Shared internet storage resource, user interface system, and method
AU1758101A (en) * 1999-11-10 2001-06-06 Thomson Licensing S.A. Editing and sharing system for rewritable disk media
AU2001245575A1 (en) * 2000-03-09 2001-09-17 Videoshare, Inc. Sharing a streaming video
JP4660879B2 (ja) 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
US7844489B2 (en) * 2000-10-30 2010-11-30 Buyerleverage Buyer-driven targeting of purchasing entities
US6760128B2 (en) * 2000-12-06 2004-07-06 Eastman Kodak Company Providing a payment schedule for utilizing stored images using a designated date
JP2002236852A (ja) * 2001-02-08 2002-08-23 Hitachi Ltd ストレージ課金システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302244A (ja) * 1994-04-28 1995-11-14 Dainippon Printing Co Ltd ネットワークを用いた著作物提供システム
JPH09214935A (ja) * 1996-02-02 1997-08-15 Mitsubishi Electric Corp 映像情報提供システム
JPH11154159A (ja) * 1997-11-21 1999-06-08 Nec Off Syst Ltd インターネット広告システム
JP2000076339A (ja) * 1998-09-01 2000-03-14 Toppan Printing Co Ltd コンテンツ運用方法
EP1093063A2 (en) 1999-09-02 2001-04-18 Mitsubishi Materials Corporation Information sharing apparatus, information sharing method, and recording medium therefore

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Seihin Shokai; Samazamana digital contents no kouritsutekina kanri wo jitsugen suru jisedai database seihingun: HiRDB universal server", HAITAKKU, 1 June 1998 (1998-06-01), pages 8 - 12, XP002941576 *
See also references of EP1278131A4 *

Also Published As

Publication number Publication date
US20070118610A1 (en) 2007-05-24
JP4963141B2 (ja) 2012-06-27
JP2001306620A (ja) 2001-11-02
US7653707B2 (en) 2010-01-26
EP1278131A1 (en) 2003-01-22
CN1381006A (zh) 2002-11-20
KR20020041341A (ko) 2002-06-01
KR100806415B1 (ko) 2008-02-21
CN1201250C (zh) 2005-05-11
HK1050944A1 (en) 2003-07-11
US7617299B2 (en) 2009-11-10
EP1278131A4 (en) 2006-03-08
US20020156829A1 (en) 2002-10-24
EP1278131B1 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
WO2001084366A1 (fr) Dispositif de mise en place d&#39;informations
JP4660879B2 (ja) 情報提供装置および方法、並びにプログラム
US9319487B2 (en) Server device, client device, information processing system, information processing method, and program
US8717367B2 (en) Automatically generating audiovisual works
US8996412B2 (en) Information processing system and information processing method
US20130218929A1 (en) System and method for generating personalized songs
KR20130020433A (ko) 멀티미디어 패키지 제작 장치 및 방법, 멀티미디어 패키지 서비스 제공 시스템 및 방법
JP3906345B2 (ja) 効果音及び映像の配信システム
KR20200102190A (ko) 창작자에 의한 등록 음원을 공유하는 음원 관리 장치, 음원 관리 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
JP2003323447A (ja) 著作物提供システムおよび著作物提供用プログラム
Parks-Murphy Filmmakers' Toolbox
JP2002203117A (ja) 著作物コンテンツの配信システム及び配信方法
JP2007087437A (ja) コンテンツ再生装置、コンテンツ再生システム及びコンテンツ再生プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 1020017016637

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001926065

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 018014194

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 10019343

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001926065

Country of ref document: EP